欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  网络运营

Nginx正反向代理及负载均衡等功能实现配置代码实例

程序员文章站 2022-07-09 14:11:38
这篇文章主要介绍了nginx正反向代理及负载均衡等功能实现配置代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下系统环境:virtualbox...

这篇文章主要介绍了nginx正反向代理及负载均衡等功能实现配置代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下

系统环境:

virtualbox manager

centos6.4

nginx1.10.0

ip对应的机器名:

ip 机器名 角色名

10.0.0.139 [elk] client

10.0.0.136 [lvs-master] nginx server

10.0.0.137 [kvm] web server 1

10.0.0.111 [lvs-backup] web server 2

一、正向代理

1.1 环境介绍

Nginx正反向代理及负载均衡等功能实现配置代码实例

1.2 配置介绍

nginx server:(内网地址:10.0.0.136,外网地址:172.16.27.64)

使用virtualbox manager虚拟出双网卡。

[root@lvs-master conf.d]# ifconfig 
eth0   link encap:ethernet hwaddr 08:00:27:30:56:99 
     inet addr:10.0.0.136 bcast:10.255.255.255 mask:255.0.0.0 
     inet6 addr: fe80::a00:27ff:fe30:5699/64 scope:link 
     up broadcast running multicast mtu:1500 metric:1 
     rx packets:891978 errors:0 dropped:0 overruns:0 frame:0 
     tx packets:9509 errors:0 dropped:0 overruns:0 carrier:0 
     collisions:0 txqueuelen:1000 
     rx bytes:81841095 (78.0 mib) tx bytes:13339058 (12.7 mib) 
 
eth1   link encap:ethernet hwaddr 08:00:27:55:4c:72 
     inet addr:172.16.27.64 bcast:172.16.27.255 mask:255.255.255.0 
     inet6 addr: fe80::a00:27ff:fe55:4c72/64 scope:link 
     up broadcast running multicast mtu:1500 metric:1 
     rx packets:913671 errors:0 dropped:0 overruns:0 frame:0 
     tx packets:22712 errors:0 dropped:0 overruns:0 carrier:0 
     collisions:0 txqueuelen:1000 
     rx bytes:109369858 (104.3 mib) tx bytes:1903855 (1.8 mib) 
 
lo    link encap:local loopback 
     inet addr:127.0.0.1 mask:255.0.0.0 
     inet6 addr: ::1/128 scope:host 
     up loopback running mtu:16436 metric:1 
     rx packets:36222 errors:0 dropped:0 overruns:0 frame:0 
     tx packets:36222 errors:0 dropped:0 overruns:0 carrier:0 
     collisions:0 txqueuelen:0 
     rx bytes:3899937 (3.7 mib) tx bytes:3899937 (3.7 mib) 
[root@lvs-master conf.d]# cat zxproxy.conf 
server { 
  listen    80;  #监听的端口 
  server_name 10.0.0.136; #server的内容地址,与client需要网络互通 
 
 
  resolver 172.16.5.1;  #dns,这个是dns,访问外网 
  location / { 
      proxy_pass http://$http_host$request_uri;  #$http_host和$request_uri是nginx系统变量,不需要替换,保持原样 
        } 

nginx client:

只有一个内网网卡,通过访问nginx server去访问internet,其实*、肉鸡、之类的俗称就是这个原理。

[root@kvm ~]# ifconfig 
eth0   link encap:ethernet hwaddr 08:00:27:72:8c:3b 
     inet addr:10.0.0.137 bcast:10.255.255.255 mask:255.0.0.0 
     inet6 addr: fe80::a00:27ff:fe72:8c3b/64 scope:link 
     up broadcast running multicast mtu:1500 metric:1 
     rx packets:1462448 errors:0 dropped:0 overruns:0 frame:0 
     tx packets:21130 errors:0 dropped:0 overruns:0 carrier:0 
     collisions:0 txqueuelen:1000 
     rx bytes:145119904 (138.3 mib) tx bytes:2814635 (2.6 mib) 
 
lo    link encap:local loopback 
     inet addr:127.0.0.1 mask:255.0.0.0 
     inet6 addr: ::1/128 scope:host 
     up loopback running mtu:16436 metric:1 
     rx packets:60800 errors:0 dropped:0 overruns:0 frame:0 
     tx packets:60800 errors:0 dropped:0 overruns:0 carrier:0 
     collisions:0 txqueuelen:0 
     rx bytes:4831102 (4.6 mib) tx bytes:4831102 (4.6 mib) 
 
[root@kvm ~]# wget www.baidu.com 
--2016-06-08 13:02:08-- http://www.baidu.com/ 
正在解析主机 www.baidu.com... 失败:域名解析暂时失败。   #无法访问百度 
wget: 无法解析主机地址 “www.baidu.com” 
 
[root@kvm ~]# export http_proxy=http://10.0.0.136:80 #设定环境变量,指定代理服务器的ip及端口 
 
[root@kvm ~]# wget www.baidu.com   #可以成功访问百度了 
--2016-06-08 13:08:15-- http://www.baidu.com/ 
正在连接 10.0.0.136:80... 已连接。 
已发出 proxy 请求,正在等待回应... 200 ok 
长度:未指定 [text/html] 
正在保存至: “index.html.1” 
 
  [ <=>                         ] 99,762   --.-k/s  in 0.07s 
 
2016-06-08 13:08:16 (1.36 mb/s) - “index.html.1” 已保存 [99762] 

二、反向代理

介绍文章同正向代理

Nginx正反向代理及负载均衡等功能实现配置代码实例

2.1 环境介绍

1.下面来看下测试页面:

[root@kvm ~]# yum install httpd 
[root@kvm ~]# echo "<html>10.0.0.137</html>" > /var/www/html/index.html 
[root@lvs-backup ~]# yum install httpd 
[root@lvs-backup~]# echo "<html>10.0.0.111</html>" > /var/www/html/index.html 

2.看下效果:

[root@lvs-backup html]# curl 10.0.0.111 
<html> 
10.0.0.111 
</html> 
[root@lvs-backup html]# curl 10.0.0.137 
<html> 
10.0.0.137 
</html>  
##都成功了,我们进行下一步。 

2.2 配置介绍

[root@lvs-master conf.d]# ls     #nginx目录下的配置文件 
zxproxy.conf 
[root@lvs-master conf.d]# cp zxproxy.conf fxproxy.conf #复制一份,之前是正向代理,现在是反向代理 
[root@lvs-master conf.d]# mv zxproxy.conf zxproxy.conf.bak 
[root@lvs-master conf.d]# cat fxproxy.conf  
server { 
  listen    80; 
  server_name 10.0.0.136; #根据环境介绍,nginx server ip 
 
  location / { 
      proxy_pass http://10.0.0.137; #被代理的服务器ip 
        } 
 
#proxy_pass: proxy_pass url 
#默认值:no 
#使用字段:location,location中的if字段 
#这个参数设置被代理服务器的地址和被映射的url,地址可以使主机名、域名、ip加端口的模式,如: 
#proxy_pass  http://192.168.1.6:8099/linuxtone/; 
 
[root@lvs-master conf.d]# service nginx restart #重启加载配置 

看下结果:

#先登录到实验环境中的clinet机上,ip如下: 
[root@elk ~]# ifconfig              
eth0   link encap:ethernet hwaddr 08:00:27:3d:40:40 
     inet addr:10.0.0.139 bcast:10.255.255.255 mask:255.0.0.0 
     inet6 addr: fe80::a00:27ff:fe3d:4040/64 scope:link 
     up broadcast running multicast mtu:1500 metric:1 
     rx packets:2618345 errors:0 dropped:0 overruns:0 frame:0 
     tx packets:247926 errors:0 dropped:0 overruns:0 carrier:0 
     collisions:0 txqueuelen:1000 
     rx bytes:336182790 (320.6 mib) tx bytes:35145157 (33.5 mib) 
 
lo    link encap:local loopback 
     inet addr:127.0.0.1 mask:255.0.0.0 
     inet6 addr: ::1/128 scope:host 
     up loopback running mtu:16436 metric:1 
     rx packets:177352 errors:0 dropped:0 overruns:0 frame:0 
     tx packets:177352 errors:0 dropped:0 overruns:0 carrier:0 
     collisions:0 txqueuelen:0 
     rx bytes:26547640 (25.3 mib) tx bytes:26547640 (25.3 mib) 
 
[root@elk ~]# curl 10.0.0.136  #访问反向代理服务器 
<html> 
10.0.0.137          
</html> 
#我们看到访问代理服务器,结果被转发到了web server1上。 
 
#接下来我们分别看下nginx-server和web-server1的日志: 
nginx-server: 
[root@lvs-master ~]# tail /var/log/nginx/access.log 
10.0.0.139- - [08/jun/2016:15:35:43 +0800] "get / http/1.1" 200 26 "-" "curl/7.19.7  
(x86_64-redhat-linux-gnu) libcurl/7.19.7 nss/3.19.1 basic ecc zlib/1.2.3 libidn/1.18 libssh2/1.4.2" "-" 
 
web-server: 
[root@kvm httpd]# tail /var/log/httpd/access_log 
10.0.0.136 - - [08/jun/2016:15:21:12 +0800] "get / http/1.0" 200 26 "-" "curl/7.19.7  
(x86_64-redhat-linux-gnu) libcurl/7.19.7 nss/3.19.1 basic ecc zlib/1.2.3 libidn/1.18 libssh2/1.4.2" 
 
##我们看到nginx-server上的nginx的日志,显示访问的用户是10.0.0.139也就是我们环境的clinet, 
#而web-server上显示的ip是10.0.0.136,也就是nginx-server。 
#说白了反向代理,对客户来说nginx-server就是真正的服务器,实际上,当用户访问nginx-server的时候,会将请求转发到 
#web-server1上,然后web-server1将请求的结果发给nginx-server,然后由ngin小-server将请求的结果转交给用户。 
 
#在web-server上看到的都是代理的ip,能不能也看到真实用户的ip呢? 
 
[root@lvs-master conf.d]# cat fxproxy.conf         
server { 
  listen    80; 
  server_name 10.0.0.136;              #根据环境介绍,nginx server ip 
 
  location / { 
      proxy_pass http://10.0.0.137;        #被代理的服务器ip 
      proxy_set_header x-real-ip $remote_addr;  #多了这行 
         } 
[root@lvs-master conf.d]# service nginx restart 
[root@kvm ~]# tail /var/log/httpd/access_log 
10.0.0.136 - - [08/jun/2016:16:10:53 +0800] "get / http/1.0" 200 26 "-" "curl/7.19.7 
(x86_64-redhat-linux-gnu) libcurl/7.19.7 nss/3.19.1 basic ecc zlib/1.2.3 libidn/1.18 libssh2/1.4.2" 
 
#改了之后还是显示的是代理服务器的ip,我们去web-server上修改下配置 
[root@kvm ~]# vim /etc/httpd/conf/httpd.conf 
logformat "%h %l %u %t \"%r\" %>s %b \"%{referer}i\" \"%{user-agent}i\"" combined 
logformat "%h %l %u %t \"%r\" %>s %b" common 
logformat "%{referer}i -> %u" referer 
logformat "%{user-agent}i" agent 
 
#修改为:(%h指的的访问的主机,现在改为访问的真实主机ip) 
logformat "%{x-real-ip}i</span> %l %u %t \"%r\" %>s %b \"%{referer}i\" \"%{user-agent}i\"" combined 
logformat "%h %l %u %t \"%r\" %>s %b" common 
logformat "%{referer}i -> %u" referer 
logformat "%{user-agent}i" agent</span> 
[root@kvm ~]# service httpd restart 
停止 httpd:                        [确定] 
正在启动 httpd:                      [确定] 
 
[root@kvm ~]# tail /var/log/httpd/access_log 
10.0.0.136 - - [08/jun/2016:16:10:53 +0800] "get / http/1.0" 200 26 "-" "curl/7.19.7 
(x86_64-redhat-linux-gnu) libcurl/7.19.7 nss/3.19.1 basic ecc zlib/1.2.3 libidn/1.18 libssh2/1.4.2" 
<span style="color:#ff0000;">10.0.0.139</span> - - [08/jun/2016:16:16:01 +0800] "get / http/1.0" 200 26 "-" "curl/7.19.7 
(x86_64-redhat-linux-gnu) libcurl/7.19.7 nss/3.19.1 basic ecc zlib/1.2.3 libidn/1.18 libssh2/1.4.2" 
#已经变成了真实的访问地址 

代理多个web服务器:

[root@lvs-master conf.d]# cat fxproxy.conf 
server { 
  listen    80; 
  server_name 10.0.0.136; 
 
  location / { 
      proxy_pass http://10.0.0.137; 
      proxy_set_header x-real-ip $remote_addr; 
        } 
  location /web2 {              #多加个location 
      proxy_pass http://10.0.0.111; 
      proxy_set_header x-real-ip $remote_addr;   
        } 
 
[root@lvs-backup ~]# cd /var/www/html/  #进入10.0.0.111这个web-server2 
[root@lvs-backup html]# mkdir web 
[root@lvs-backup html]# echo "<html>10.0.0.111</html>" > index.html 
#我们去client*问试试: 
[root@elk ~]# curl 10.0.0.136/web2/ 
<html> 
10.0.0.111 
</html> 
#访问成功 

三、负载均衡

负载均衡实现的方式有很多,常用的lvs四层负载均衡,nginx是七层负载均衡,可以网上查询相关资料。

3.1 环境介绍

Nginx正反向代理及负载均衡等功能实现配置代码实例

3.2 配置介绍

1.upstream是nginx的http upstream模块,这个模块通过一个简单的调度算法来实现客户端ip到后端服务器的负载均衡。在上面的设定中,通过upstream指令指定了一个负载均衡器的名称1.2.3.4。这个名称可以任意指定,在后面需要用到的地方直接调用即可。

2.nginx的负载均衡模块目前支持4种调度算法,下面进行分别介绍,其中后两项属于第三方调度算法。

  • 轮询(默认)。每个请求按时间顺序逐一分配到不同的后端服务器,如果后端某台服务器宕机,故障系统被自动剔除,使用户访问不受影响。weight 指定轮询权值,weight值越大,分配到的访问机率越高,主要用于后端每个服务器性能不均的情况下。
  • ip_hash。每个请求按访问ip的hash结果分配,这样来自同一个ip的访客固定访问一个后端服务器,有效解决了动态网页存在的session共享问题。
  • fair。这是比上面两个更加智能的负载均衡算法。此种算法可以依据页面大小和加载时间长短智能地进行负载均衡,也就是根据后端服务器的响应时间来分配请求,响应时间短的优先分配。nginx本身是不支持fair的,如果需要使用这种调度算法,必须下载nginx的upstream_fair模块。
  • url_hash。此方法按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,可以进一步提高后端缓存服务器的效率。nginx本身是不支持url_hash的,如果需要使用这种调度算法,必须安装nginx 的hash软件包。

3.upstream 支持的状态参数

在http upstream模块中,可以通过server指令指定后端服务器的ip地址和端口,同时还可以设定每个后端服务器在负载均衡调度中的状态。常用的状态有:

  • down,表示当前的server暂时不参与负载均衡。
  • backup,预留的备份机器。当其他所有的非backup机器出现故障或者忙的时候,才会请求backup机器,因此这台机器的压力最轻。
  • max_fails,允许请求失败的次数,默认为1。当超过最大次数时,返回proxy_next_upstream 模块定义的错误。
  • fail_timeout,在经历了max_fails次失败后,暂停服务的时间。max_fails可以和fail_timeout一起使用。

注,当负载调度算法为ip_hash时,后端服务器在负载均衡调度中的状态不能是weight和backup。
我们来看下具体配置:

[root@lvs-master conf.d]# cat ../nginx.conf 
http { 
  include    /etc/nginx/mime.types; 
  default_type application/octet-stream; 
 
  log_format main '$remote_addr - $remote_user [$time_local] "$request" ' 
           '$status $body_bytes_sent "$http_referer" ' 
           '"$http_user_agent" "$http_x_forwarded_for"'; 
 
  access_log /var/log/nginx/access.log main; 
 
  sendfile    on; 
  #tcp_nopush   on; 
 
  keepalive_timeout 65; 
 
  #gzip on; 
upstream 1.2.3.4 { 
  server 10.0.0.111:80; 
  server 10.0.0.137:80; 
  } 
  include /etc/nginx/conf.d/*.conf; 
} 
 
[root@lvs-master conf.d]# cat slb.confserver  
{  
location / {  
   proxy_pass http://1.2.3.4; proxy_set_header x-real-ip $remote_addr;  
      } 
#注,upstream是定义在server{ }之外的,不能定义在server{ }内部。定义好upstream之后,用proxy_pass引用一下即可。 

4.测试结果

[root@elk ~]# curl 10.0.0.136 
<html> 
10.0.0.111 
</html> 
[root@elk ~]# curl 10.0.0.136 
<html> 
10.0.0.137 
</html> 
[root@elk ~]# curl 10.0.0.136 
<html> 
10.0.0.111 
</html> 
#结果是server1,2交替出现,说明默认是轮询方式的负载均衡。 

5.健康检查

一般健康检查都需要搞个keepalived,但nginx也有相应的参数可以设置。

max_fails,允许请求失败的次数,默认为1。当超过最大次数时,返回proxy_next_upstream 模块定义的错误。

fail_timeout,在经历了max_fails次失败后,暂停服务的时间。max_fails可以和fail_timeout一起使用,进行健康状态检查。

[root@lvs-master conf.d]# cat ../nginx.conf 
http {   
  include    /etc/nginx/mime.types; 
  default_type application/octet-stream; 
 
  log_format main '$remote_addr - $remote_user [$time_local] "$request" ' 
           '$status $body_bytes_sent "$http_referer" ' 
           '"$http_user_agent" "$http_x_forwarded_for"'; 
 
  access_log /var/log/nginx/access.log main; 
 
  sendfile    on; 
  #tcp_nopush   on; 
 
  keepalive_timeout 65; 
 
  #gzip on; 
  upstream 1.2.3.4 { 
  server 10.0.0.111:80 weight=1 max_fails=2 fail_timeout=2; 
  server 10.0.0.137:80 weight=1 max_fails=2 fail_timeout=2; 
  } 
  include /etc/nginx/conf.d/*.conf; 
  } 
[root@lvs-master conf.d]# service nginx restart 

6.测试下结果

[root@kvm httpd]# service httpd stop #关闭web-server1服务 
[root@elk ~]# curl 10.0.0.136 
<html> 
10.0.0.111 
</html> 
[root@elk ~]# curl 10.0.0.136 
<html> 
10.0.0.111 
</html> 
#现在只能访问web-server2了。 
 
[root@kvm httpd]# service httpd start  #打开web-server1服务 
[root@elk ~]# curl 10.0.0.136       
<html> 
10.0.0.111 
</html> 
[root@elk ~]# curl 10.0.0.136 
<html> 
10.0.0.137 
</html> 
[root@elk ~]# curl 10.0.0.136 
<html> 
10.0.0.111 
</html> 

7.ip_hash的负载均衡

[root@lvs-master conf.d]# cat ../nginx.conf 
upstream 1.2.3.4 { 
  ip_hash; 
  server 10.0.0.111:80 weight=1 max_fails=2 fail_timeout=2; 
  server 10.0.0.137:80 weight=1 max_fails=2 fail_timeout=2; 
  } 
[root@lvs-master conf.d]# service nginx restart 
停止 nginx:                        [确定] 
正在启动 nginx:                      [确定] 
 
[root@elk ~]# curl 10.0.0.136 
<html> 
10.0.0.137 
</html> 
[root@elk ~]# curl 10.0.0.136 
<html> 
10.0.0.137 
</html> 
#配置这种负载均衡后,>每个请求按访问ip的hash结果分配,这样来自同一个ip的访客固定访问一个后端服务器, 
#有效解决了动态网页存在的session共享问题。(一般电子商务网站用的比较多) 

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。