Nginx 负载均衡
负载均衡
单个服务器解决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡
配置实例-负载均衡
1.实现效果
浏览器地址栏输入地址http://192.168.17.129/edu/a.html,负载均衡效果,平均8080和8081端口中
2.准备工作
(1)准备两台tomcat服务器,一台8080,-台8081
(2)在两台tomcat里面webapps.目录中,创建名称是edu件夹,在edu文件夹中创建页面a.html,用于测试
3.在nginx的配置文件中进行负载均衡的配置
随着互联网信息的爆炸性增长,负载衡(load balance)已经不再是一个很陌生的话题,顾名思义,负载均衡即是将负载分推到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎, nginx就是其中的一个,在linux下有Nginx, LVs、 Haproxy等等服务可以提供负载均衡服务,而且Nsinx提供了几种分配方式(策略):
(1)轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除
upstream myserver{
server 47.100.39.234:8080;
server 47.100.39.234:8081;
}
(2)weight(权重)
weight代表权,重默认为1,权重越高被分配的客户端越多指定轮询几率, weight和访问比率成正比,用于后端服务器性能不均的情况
upstream myserver{
server 47.100.39.234:8080 weight=1;
server 47.100.39.234:8081 weight=1;
}
(3)ip_hash
每个请求按访问ip的nash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。(一个ip访问一个固定的服务器)
upstream myserver{
ip_hash;
server 47.100.39.234:8080;
server 47.100.39.234:8081;
}
(4)fair(第三方)
按后端服务器的应时间来 请求,响应时间短的优先分配。(访问8080 8081 哪个端口响应时间短就访问谁)
upstream myserver{
server 47.100.39.234:8080;
server 47.100.39.234:8081;
fair;
}
上一篇: JBoss EAP 6常见问题
下一篇: 3D游戏设计作业3