欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

nginx负载均衡原理+实操配置,4种经典负载算法

程序员文章站 2024-01-31 23:19:22
...

为什么要实现服务器集群

实现服务器集群主要就是为了负载均衡(Load Balance)——有两台或者以上的服务器或者站点提供服务,服务将来自客户端的请求,靠某种算法,去尽量平分请求到集群的机器中,从而避免一台服务器因为负载太高而出现故障,而即使其中某个机器出现故障,负载均衡会自动规避选择,使得用户也能正常访问服务。

程序&数据库服务器分离

动&静资源分离

好处:减轻后端服务器的压力,提高静态资源访问速度
坏处:爬虫抓取下来的前端的页面里,包含了大量异步加载的操作,但是爬虫无法执行也无法获得其内容,这样会导致网站的SEO受影响

nginx负载均衡原理+实操配置,4种经典负载算法

负载均衡的例子

前面有1000个妞等着你来泡,这1000个妞等久了有可能不耐烦,就会走了不让你泡了。你要想同时泡1000个妞,那你就得有分身的能力才行。
只要有了分身的能力,你就再也不用担心妞泡不过来了。

结论得出:负载均衡 == 分身的能力

你的分身把这个妞泡准了,你这个分身就要跟她一直谈下去,其他的妞过来了你肯定要拒绝丫。
你没泡成功,当然是去寻找下一个目标。

结论得出:负载均衡还得保持通话

你的分身也偶尔发发小脾气,没激情来泡妞的时候,你就要去修理他,去找他聊聊心。

结论得出:负载均衡还要懂得修理他(T出泡妞队营)

尼玛负载均衡就为了泡妞,我们果断一起踩扁它。
负载均衡现在市场上面已经有很多成熟的硬件设备,可以掏点钱就可以买了。当然这费用嘛…
如果你闲费用贵,自己瞎折腾也好,来体现你的技术是多么牛xx, 你就用一台服务器,服务器里面装个nginx就可以解决了。

尼玛负载均衡就这么简单,我们继续一起踩扁它。

要说道每个分身的能力如何复制过去,就如每一台电脑要泡妞怎么办,是不是要具有相同的代码。怎么办?

  1. 共享主人的经验
  2. 把主人的经验复制过来
  3. 边复制边共享

转成计算机就是说:

  1. 文件共享 sync
  2. 文件同步
  3. 分布式文件系统

他们都有各自的优缺点,选择适合自己的就行。

首先我们来回顾下上篇的概念: 负载均衡 == 分身的能力。

既然要有分身的能力嘛,这好办,多弄几台服务器就搞定了。
今天我们讲的实例嘛……我们还是先看图比较好:
nginx负载均衡原理+实操配置,4种经典负载算法

还是图比较清晰,以下我都用别名称呼:
  Vm1 : 负载均衡服务器/WEB入口服务器/www.test.com
  Vm2 : WEB服务器/分身1/192.168.1.121
  Vm3 : WEB服务器/分身2/192.168.1.124

PS:首先我们学这个的开始之前吧,不懂防火墙的童鞋们,建议你们把服务器的防火墙关闭,尽量不要引起不必要的麻烦。

首先 :服务器都要安装Nginx,不会安装的可以去官网查看教程:http://www.nginx.cn/install (中文版教程、非常的牛X)

  1. 装完之后哈,我们先找到 Vm1 的nginx.conf配置文件:
    在http段加入以下代码:
upstream servers.test.com { 
    server 192.168.1.121:80; 
    server 192.168.1.124:80; 
}

当然嘛,这servers.test.com随便取的。
那么Vm1的server配置如下:
在http段加入以下代码:

server{ 
    listen 80; 
    server_name www.test.com;     location / { 
        proxy_pass http://servers.test.com; 
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
	} 
}   

那么Vm2、Vm3的配置如下:

server{ 
    listen 80; 
    server_name www.test.com; 
    index index.html; 
    root /home/wwwroot/default; 
}
  1. 有人就问了,我用其它端口行不行啊,当然也是可以的,假设Vm1的nginx.conf配置文件:
upstream servers2.test.com { 
    server 192.168.1.121:8080; 
server 192.168.1.124:8081;
}
server{ 
    listen 80; 
    server_name www.test.com;     location / { 
        proxy_pass http://servers2.test.com; 
        proxy_set_header Host $host; 
        proxy_set_header X-Real-IP $remote_addr; 
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;     
	} 
}

那么Vm2的配置如下:

server{ 
    listen 8080; 
    server_name www.test.com; 
    index index.html; 
    root /home/wwwroot/default; 
}

Vm3配置:

server{ 
    listen 8081; 
    server_name www.test.com; 
    index index.html; 
    root /home/wwwroot/default; 
}

重启之后,我们访问下,恩不错,确实很厉害。

当我们把一台服务器给关闭了后。
访问网址,还是OK的。说明:负载均衡还要懂得修理他(T出泡妞队营)

那么负载均衡如何保持通话呢?

当然现在有好几种方案,
1、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

2、weight
指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。
例如:

upstream bakend {
	server 192.168.159.10 weight=90;
	server 192.168.159.11 weight=10;
}

3、ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器, 
优点:能较好地把同一个客户端的多次请求分配到同一台服务器处理,避免了加权轮询无法适用会话保持的需求。
  缺点:当某个时刻来自某个IP地址的请求特别多,那么将导致某台后端服务器的压力可能非常大,而其他后端服务器却空闲的不均衡情况。

例如:

upstream resinserver{
	ip_hash;
	server 192.168.159.10:8080;
	server 192.168.159.11:8080;
}

4、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream resinserver{
	server server1;
	server server2;
	fair;
}
相关标签: 架构