Nginx反向代理+DNS轮询+IIS7.5 千万PV 百万IP 双线 网站架构案例
程序员文章站
2024-02-08 15:57:34
nginx ("engine x") 是一个高性能的 http 和反向代理服务器,也是一个 imap/pop3/smtp 代理服务器。 nginx 是...
nginx ("engine x") 是一个高性能的 http 和反向代理服务器,也是一个 imap/pop3/smtp 代理服务器。 nginx 是由 igor sysoev 为俄罗斯访问量第二的 rambler.ru 站点开发的,它已经在该站点运行超过两年半了。igor 将源代码以类bsd许可证的形式发布。
nginx 的中文维基:http://wiki.codemongers.com/nginxchs
在高并发连接的情况下,nginx是apache服务器不错的替代品。nginx同时也可以作为7层负载均衡服务器来使用。根据我的测试结果,nginx 0.5.31 + php 5.2.4 (fastcgi) 可以承受3万以上的并发连接数,相当于同等环境下apache的10倍。
nginx 超越 apache 的高性能和稳定性,使得国内使用 nginx 作为 web 服务器的网站也越来越多,其中包括新浪博客、新浪播客、网易新闻、腾讯网、搜狐博客等门户网站频道,六间房、56.com等视频分享网站,discuz!官方论坛、水木社区等知名论坛,盛大在线、金山逍遥网等网络游戏网站,豆瓣、人人网、yupoo相册、金山爱词霸、迅雷在线等新兴web 2.0网站。
在高并发连接的情况下,nginx是apache服务器不错的替代品。nginx同时也可以作为7层负载均衡服务器来使用。根据我的测试结果,nginx 0.8.46 + php 5.2.14 (fastcgi) 可以承受3万以上的并发连接数,相当于同等环境下apache的10倍。
根据我的经验,4gb内存的服务器+apache(prefork模式)一般只能处理3000个并发连接,因为它们将占用3gb以上的内存,还得为系统预留1gb的内存。我曾经就有两台apache服务器,因为在配置文件中设置的maxclients为4000,当apache并发连接数达到3800时,导致服务器内存和swap空间用满而崩溃。
而这台 nginx 0.8.46 + php 5.2.14 (fastcgi) 服务器在3万并发连接下,开启的10个nginx进程消耗150m内存(15m*10=150m),开启的64个php-cgi进程消耗1280m内存(20m*64=1280m),加上系统自身消耗的内存,总共消耗不到2gb内存。如果服务器内存较小,完全可以只开启25个php-cgi进程,这样php-cgi消耗的总内存数才500m。
在3万并发连接下,访问nginx 0.8.46 + php 5.2.14 (fastcgi) 服务器的php程序,仍然速度飞快。下图为nginx的状态监控页面,显示的活动连接数为28457(关于nginx的监控页配置,会在本文接下来所给出的nginx配置文件中写明):
为什么nginx的性能要比apache高得多?这得益于nginx使用了最新的epoll(linux 2.6内核)和kqueue(freebsd)网络i/o模型,而apache则使用的是传统的select模型。目前linux下能够承受高并发访问的squid、memcached都采用的是epoll网络i/o模型。
处理大量的连接的读写,apache所采用的select网络i/o模型非常低效。下面用一个比喻来解析apache采用的select模型和nginx采用的epoll模型进行之间的区别:
假设你在大学读书,住的宿舍楼有很多间房间,你的朋友要来找你。select版宿管大妈就会带着你的朋友挨个房间去找,直到找到你为止。而epoll版宿管大妈会先记下每位同学的房间号,你的朋友来时,只需告诉你的朋友你住在哪个房间即可,不用亲自带着你的朋友满大楼找人。如果来了10000个人,都要找自己住这栋楼的同学时,select版和epoll版宿管大妈,谁的效率更高,不言自明。同理,在高并发服务器中,轮询i/o是最耗时间的操作之一,select和epoll的性能谁的性能更高,同样十分明了。
某公司有一站点,一天ip 430w,pv 3100w,之前采用5台 dell r610 做nlb,系统2008 iis7.5.每天高峰期时都不堪重负.会出现以下情况
1:远程登陆巨慢无比
2:远程登陆系统后无法操作,表现为鼠标移动缓慢,操作延时,系统呆滞.
3:cpu长期在80%以上,内存消耗极高
4:....
经过部门讨论后决定采用nginx反向代理的架构替代目前不堪重负的站点.拓扑图如下
硬件:
前端采用2台dell m420刀片,虚拟4台centos5.8跑nginx反向代理.
后端依旧采用5台服务器,不过从硬件上也升级到dell m420 2008系统 iis7.5
网络结构:
nginx
电信 192.168.0.1 192.168.0.2
联通 192.168.1.1 192.168.1.2
2008 iis7.5
电信 192.168.0.10 192.168.0.11 192.168.0.13 192.168.0.14 192.168.0.15
联通 192.168.1.10 192.168.1.11 192.168.1.13 192.168.1.14 192.168.1.15
域名xxx.com通过dns轮询到 nginx前端,再根据你的配置甩向不同upstream
新架构部署好后能明显感觉整个站点打开都飞快,后端完全无压力状态,这还并没有开启nginx自带的cache.
现在这套架构每天承载百万ip 千万pv的访问量 如图
awstats 统计结果
nginx性能图如下
单台centos cpu图
安装步骤:
一:
2台宿主机虚拟成4台这个步骤就略过,网上教程一大把.在这里我们每台分配2个cpu共8个核心,内存6g,硬盘100g.
系统要求:linux 2.6+ 内核,本文中的linux操作系统为centos 5.8 64位)
系统为最精简安装文本界面,系统安装好后配置系统.
#修改系统dns
rm -rf /etc/resolv.conf
touch /etc/resolv.conf
echo -ne "nameserver 114.114.114.114\nnameserver 114.114.115.115\nsearch localdomain" >>/etc/resolv.conf
#修改系统源
#yum 升级安装,根据需求自己行删除
#设置ssh下 securecrt标签显示为帐号@ip
#设置term类型是screen时(命令screen进入新窗口时)标签显示内容, 和xterm一样
#设置term类型不是xterm和screen时标签显示内容, 也和xterm一样
#给予可执行权限
#修改文件句柄数为65535,默认系统为1024
#添加iptables
#根据硬件优化linux性能
#刷新sysctl.conf
#禁用ipv6
#关闭 selinux
#将同步好的时间写到cmos里
#设置同步时间
#修改系统启动级别
#禁止ctrl+alt+del
二:
获取相关开源程序:
nginx 官方当前稳定版为 nginx-1.2.4 ,我测试环境使用版本为nginx-1.3.3
pcre-8.31
nginx_upstream_check_module
ngx_cache_purge-1.6
请自行从网络下载
安装步骤:
#新建www用户组和www用户
#创建相应的目录
#安装内核和openssl
#安装pcre
#安装nginx
到这里nginx安装完毕,目前nginx所有的配置都是默认配置,我贴下我案例中的nginx配置,如有错误请大牛们指导.
nginx.conf
user www www;
worker_processes 8;
worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000;
worker_rlimit_nofile 204800;
error_log /data/logs/error.log;
pid logs/nginx.pid;
events {
worker_connections 240800;
use epoll;
}
http {
include nginx_load_balance.conf;
#include proxy.conf;
include mime.types;
default_type application/octet-stream;
server_names_hash_bucket_size 128;
#log_format access '$remote_addr - $remote_user [$time_local] "$request" '
#'$status $body_bytes_sent "$http_referer" '
#'"$http_user_agent" $http_x_forwarded_for';
#access_log /data/logs/access.log access;
sendfile on;
tcp_nopush on;
tcp_nodelay on;
server_tokens off;
keepalive_timeout 60;
client_header_buffer_size 4k;
#large_client_header_buffers 4 32k;
client_max_body_size 10m;
client_header_timeout 120s;
client_body_timeout 120s;
send_timeout 120s;
gzip off;
gzip_min_length 1k;
gzip_buffers 4 16k;
output_buffers 1 512k;
postpone_output 1460;
#gzip_http_version 1.1;
gzip_comp_level 4;
gzip_types text/plain text/css text/javascript text/xml application/x-javascript application/xml application/xml+rss;
gzip_vary on;
server {
listen 80;
server_name localhost;
location / {
rewrite ^ http://www.test.com$request_uri?;
#root /data/html/www;
#index index.html index.htm;
}
error_page 404 /data/html/www/404.html;
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
location /status {
stub_status on;
access_log off;
}
location /nstatus {
check_status;
access_log off;
#allow some.ip.add.ress;
#deny all;
}
}
include vhost/*.conf;
}
nginx_load_balance.conf
proxy.conf
以上是nginx配置,下面是vhost中网站配置
xxxx_com.conf
至此,一套完整的nginx反向代理全部结束.
网站无法打开排查
1:ping域名看解析是否正常且是否连通.
2:配置本机hosts指向后端单机iis查看网站是否正常访问.
3:检查前端nginx进程和端口是否存在,
ps -ef |grep nginx
netstat -an |grep 80
系统相关配置
nginx
nginx目录/usr/local/nginx/
/usr/local/nginx/conf/nginx.conf nginx主配置文件
/usr/local/nginx/conf/nginx_load_balance.conf nginx反向代理轮询配置文件
/usr/local/nginx/conf/proxy.conf nginx缓存配置相关
/usr/local/nginx/conf/vhost/ nginx虚拟主机配置目录
snmp
/etc/snmp/snmpd.conf
日志切割
/root/scripts/ 所有日志切割脚本都在这个目录
crontab -l 列出计划任务
crontab -e 编辑计划任务
系统相关操作
nginx
重启nginx service nginx restart
重载nginx配置文件 service nginx reload
检测nginx配置语法是否正确 /usr/local/nginx/sbin/nginx -t
关闭nginx service nginx stop
启动nginx service nginx start
snmp
重启snmp service snmpd restart
关闭snmp service snmpd stop
启动snmp service snmpd start
最后编辑: chen 编辑于2012/11/07 17:57
nginx 的中文维基:http://wiki.codemongers.com/nginxchs
在高并发连接的情况下,nginx是apache服务器不错的替代品。nginx同时也可以作为7层负载均衡服务器来使用。根据我的测试结果,nginx 0.5.31 + php 5.2.4 (fastcgi) 可以承受3万以上的并发连接数,相当于同等环境下apache的10倍。
nginx 超越 apache 的高性能和稳定性,使得国内使用 nginx 作为 web 服务器的网站也越来越多,其中包括新浪博客、新浪播客、网易新闻、腾讯网、搜狐博客等门户网站频道,六间房、56.com等视频分享网站,discuz!官方论坛、水木社区等知名论坛,盛大在线、金山逍遥网等网络游戏网站,豆瓣、人人网、yupoo相册、金山爱词霸、迅雷在线等新兴web 2.0网站。
在高并发连接的情况下,nginx是apache服务器不错的替代品。nginx同时也可以作为7层负载均衡服务器来使用。根据我的测试结果,nginx 0.8.46 + php 5.2.14 (fastcgi) 可以承受3万以上的并发连接数,相当于同等环境下apache的10倍。
根据我的经验,4gb内存的服务器+apache(prefork模式)一般只能处理3000个并发连接,因为它们将占用3gb以上的内存,还得为系统预留1gb的内存。我曾经就有两台apache服务器,因为在配置文件中设置的maxclients为4000,当apache并发连接数达到3800时,导致服务器内存和swap空间用满而崩溃。
而这台 nginx 0.8.46 + php 5.2.14 (fastcgi) 服务器在3万并发连接下,开启的10个nginx进程消耗150m内存(15m*10=150m),开启的64个php-cgi进程消耗1280m内存(20m*64=1280m),加上系统自身消耗的内存,总共消耗不到2gb内存。如果服务器内存较小,完全可以只开启25个php-cgi进程,这样php-cgi消耗的总内存数才500m。
在3万并发连接下,访问nginx 0.8.46 + php 5.2.14 (fastcgi) 服务器的php程序,仍然速度飞快。下图为nginx的状态监控页面,显示的活动连接数为28457(关于nginx的监控页配置,会在本文接下来所给出的nginx配置文件中写明):
为什么nginx的性能要比apache高得多?这得益于nginx使用了最新的epoll(linux 2.6内核)和kqueue(freebsd)网络i/o模型,而apache则使用的是传统的select模型。目前linux下能够承受高并发访问的squid、memcached都采用的是epoll网络i/o模型。
处理大量的连接的读写,apache所采用的select网络i/o模型非常低效。下面用一个比喻来解析apache采用的select模型和nginx采用的epoll模型进行之间的区别:
假设你在大学读书,住的宿舍楼有很多间房间,你的朋友要来找你。select版宿管大妈就会带着你的朋友挨个房间去找,直到找到你为止。而epoll版宿管大妈会先记下每位同学的房间号,你的朋友来时,只需告诉你的朋友你住在哪个房间即可,不用亲自带着你的朋友满大楼找人。如果来了10000个人,都要找自己住这栋楼的同学时,select版和epoll版宿管大妈,谁的效率更高,不言自明。同理,在高并发服务器中,轮询i/o是最耗时间的操作之一,select和epoll的性能谁的性能更高,同样十分明了。
某公司有一站点,一天ip 430w,pv 3100w,之前采用5台 dell r610 做nlb,系统2008 iis7.5.每天高峰期时都不堪重负.会出现以下情况
1:远程登陆巨慢无比
2:远程登陆系统后无法操作,表现为鼠标移动缓慢,操作延时,系统呆滞.
3:cpu长期在80%以上,内存消耗极高
4:....
经过部门讨论后决定采用nginx反向代理的架构替代目前不堪重负的站点.拓扑图如下
硬件:
前端采用2台dell m420刀片,虚拟4台centos5.8跑nginx反向代理.
后端依旧采用5台服务器,不过从硬件上也升级到dell m420 2008系统 iis7.5
网络结构:
nginx
电信 192.168.0.1 192.168.0.2
联通 192.168.1.1 192.168.1.2
2008 iis7.5
电信 192.168.0.10 192.168.0.11 192.168.0.13 192.168.0.14 192.168.0.15
联通 192.168.1.10 192.168.1.11 192.168.1.13 192.168.1.14 192.168.1.15
域名xxx.com通过dns轮询到 nginx前端,再根据你的配置甩向不同upstream
新架构部署好后能明显感觉整个站点打开都飞快,后端完全无压力状态,这还并没有开启nginx自带的cache.
现在这套架构每天承载百万ip 千万pv的访问量 如图
awstats 统计结果
nginx性能图如下
单台centos cpu图
安装步骤:
一:
2台宿主机虚拟成4台这个步骤就略过,网上教程一大把.在这里我们每台分配2个cpu共8个核心,内存6g,硬盘100g.
系统要求:linux 2.6+ 内核,本文中的linux操作系统为centos 5.8 64位)
系统为最精简安装文本界面,系统安装好后配置系统.
#修改系统dns
rm -rf /etc/resolv.conf
touch /etc/resolv.conf
echo -ne "nameserver 114.114.114.114\nnameserver 114.114.115.115\nsearch localdomain" >>/etc/resolv.conf
#修改系统源
mv /etc/yum.repos.d/centos-base.repo /etc/yum.repos.d/centos-base.repo.backup
wget http://mirrors.163.com/.help/centos5-base-163.repo
cp centos5-base-163.repo /etc/yum.repos.d/
wget http://mirrors.163.com/.help/centos5-base-163.repo
cp centos5-base-163.repo /etc/yum.repos.d/
#yum 升级安装,根据需求自己行删除
yum install -y lrzsz gcc gcc-c++ make flex autoconf automake vixie-cron libjpeg libjpeg-devel libpng libpng-devel freetype freetype-devel libxml2 libxml2-devel zlib zlib-devel glibc glibc-devel glib2 glib2-devel bzip2 bzip2-devel ncurses ncurses-devel curl curl-devel e2fsprogs e2fsprogs-devel krb5 krb5-devel libidn libidn-devel openssl openssl-devel kernel-devel wget patch ntp libevent m4 zip unzip gd gd-devel file libtool-libs gmp-devel pspell-devel mod_perl-devel parted apr-util readline-devel sysstat vim* popt-devel patch openssh-clients net-snmp net-snmp-devel net-snmp-utils net-snmp-libs
#设置ssh下 securecrt标签显示为帐号@ip
touch /etc/sysconfig/bash-prompt-xterm
vim /etc/sysconfig/bash-prompt-xterm
#添加以下一行
echo -ne "\e]2;${user}@$(/sbin/ifconfig eth0|grep 'inet addr'|sed -e 's/^.*inet addr:\(.*\) bcast.*$/\1/')\a"
vim /etc/sysconfig/bash-prompt-xterm
#添加以下一行
echo -ne "\e]2;${user}@$(/sbin/ifconfig eth0|grep 'inet addr'|sed -e 's/^.*inet addr:\(.*\) bcast.*$/\1/')\a"
#设置term类型是screen时(命令screen进入新窗口时)标签显示内容, 和xterm一样
cp /etc/sysconfig/bash-prompt-xterm /etc/sysconfig/bash-prompt-screen
#设置term类型不是xterm和screen时标签显示内容, 也和xterm一样
cp /etc/sysconfig/bash-prompt-xterm /etc/sysconfig/bash-prompt-default
#给予可执行权限
chmod +x /etc/sysconfig/bash-prompt-*
#修改文件句柄数为65535,默认系统为1024
echo "session required /lib64/security/pam_limits.so" >>/etc/pam.d/login
echo -ne "
* soft nofile 65534
* hard nofile 65534
" >>/etc/security/limits.conf
echo -ne "
* soft nofile 65534
* hard nofile 65534
" >>/etc/security/limits.conf
#添加iptables
rm -rf /etc/sysconfig/iptables
touch /etc/sysconfig/iptables
cat << eof >> /etc/sysconfig/iptables
此段加入你的iptables规则
eof
service iptables restart
touch /etc/sysconfig/iptables
cat << eof >> /etc/sysconfig/iptables
此段加入你的iptables规则
eof
service iptables restart
#根据硬件优化linux性能
cat << eof >> /etc/sysctl.conf
# add
#开启syn cookies,当出现syn等待队列溢出时,启用cookies来处理
net.ipv4.tcp_syncookies = 1
#表示syn队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数。
net.ipv4.tcp_max_syn_backlog = 65536
#每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目
net.core.netdev_max_backlog = 262144
net.ipv4.tcp_fin_timeout = 30
#当keepalive起用的时候,tcp发送keepalive消息的频度。缺省是2小时
net.ipv4.tcp_keepalive_time = 1200
#redis设置
net.core.somaxconn = 262144
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_timestamps = 0
#参数的值决定了内核放弃连接之前发送syn+ack包的数量
net.ipv4.tcp_synack_retries = 2
#在内核放弃建立连接之前发送syn包的数量
net.ipv4.tcp_syn_retries = 2
#启用timewait快速回收
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_mem = 94500000 915000000 927000000
#系统中最多有多少个tcp套接字不被关联到任何一个用户文件句柄上。这个限制仅仅是为了防止简单的dos攻击,不能过分依靠它或者人为地减小这个值,更应该增加这个值(如果增加了内存之后)
net.ipv4.tcp_max_orphans = 3276800
#允许系统打开的端口范围
net.ipv4.ip_local_port_range = 1024 65535
#增加系统文件描述符限制
fs.file-max = 65535
#允许更多的pids (减少滚动翻转问题); may break some programs 32768
kernel.pid_max = 65536
# 增加tcp最大缓冲区大小
net.ipv4.tcp_rmem = 4096 4096 16777216
net.ipv4.tcp_wmem = 4096 4096 16777216
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.eth0.send_redirects = 0
net.ipv4.conf.all.send_redirects = 0
#2012-8-30
#net.ipv4.ip_conntrack_max=1048576
#net.ipv4.netfilter.ip_conntrack_max=1048576
net.ipv4.netfilter.ip_conntrack_tcp_timeout_time_wait=120
net.ipv4.netfilter.ip_conntrack_tcp_timeout_close_wait=60
net.ipv4.netfilter.ip_conntrack_tcp_timeout_fin_wait=120
net.ipv4.neigh.default.gc_thresh1=10240
net.ipv4.neigh.default.gc_thresh2=40960
net.ipv4.neigh.default.gc_thresh3=81920
#timewait的数量
net.ipv4.tcp_max_tw_buckets =6000
eof
# add
#开启syn cookies,当出现syn等待队列溢出时,启用cookies来处理
net.ipv4.tcp_syncookies = 1
#表示syn队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数。
net.ipv4.tcp_max_syn_backlog = 65536
#每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目
net.core.netdev_max_backlog = 262144
net.ipv4.tcp_fin_timeout = 30
#当keepalive起用的时候,tcp发送keepalive消息的频度。缺省是2小时
net.ipv4.tcp_keepalive_time = 1200
#redis设置
net.core.somaxconn = 262144
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_timestamps = 0
#参数的值决定了内核放弃连接之前发送syn+ack包的数量
net.ipv4.tcp_synack_retries = 2
#在内核放弃建立连接之前发送syn包的数量
net.ipv4.tcp_syn_retries = 2
#启用timewait快速回收
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_mem = 94500000 915000000 927000000
#系统中最多有多少个tcp套接字不被关联到任何一个用户文件句柄上。这个限制仅仅是为了防止简单的dos攻击,不能过分依靠它或者人为地减小这个值,更应该增加这个值(如果增加了内存之后)
net.ipv4.tcp_max_orphans = 3276800
#允许系统打开的端口范围
net.ipv4.ip_local_port_range = 1024 65535
#增加系统文件描述符限制
fs.file-max = 65535
#允许更多的pids (减少滚动翻转问题); may break some programs 32768
kernel.pid_max = 65536
# 增加tcp最大缓冲区大小
net.ipv4.tcp_rmem = 4096 4096 16777216
net.ipv4.tcp_wmem = 4096 4096 16777216
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.eth0.send_redirects = 0
net.ipv4.conf.all.send_redirects = 0
#2012-8-30
#net.ipv4.ip_conntrack_max=1048576
#net.ipv4.netfilter.ip_conntrack_max=1048576
net.ipv4.netfilter.ip_conntrack_tcp_timeout_time_wait=120
net.ipv4.netfilter.ip_conntrack_tcp_timeout_close_wait=60
net.ipv4.netfilter.ip_conntrack_tcp_timeout_fin_wait=120
net.ipv4.neigh.default.gc_thresh1=10240
net.ipv4.neigh.default.gc_thresh2=40960
net.ipv4.neigh.default.gc_thresh3=81920
#timewait的数量
net.ipv4.tcp_max_tw_buckets =6000
eof
#刷新sysctl.conf
复制代码 代码如下:
/sbin/sysctl -p
#禁用ipv6
复制代码 代码如下:
echo -ne "alias net-pf-10 off\noptions ipv6 disable=1" >>/etc/modprobe.conf
/sbin/chkconfig --level 35 ip6tables off
/sbin/chkconfig --level 35 ip6tables off
#关闭 selinux
复制代码 代码如下:
sed -i '/selinux/s/enforcing/disabled/' /etc/selinux/config
#将同步好的时间写到cmos里
复制代码 代码如下:
sed -i 's#sync_hwclock=no#sync_hwclock=yes#' /etc/sysconfig/ntpd
#设置同步时间
复制代码 代码如下:
echo "0 6 * * * /usr/sbin/ntpdate 192.168.0.172;/sbin/hwclock -w; >/dev/null 2>&1" >>/var/spool/cron/root
service crond restart
service crond restart
#修改系统启动级别
复制代码 代码如下:
sed -i 's/id:5:initdefault:/id:3:initdefault:/g' /etc/inittab
#禁止ctrl+alt+del
复制代码 代码如下:
sed -i "s/ca::ctrlaltdel:\/sbin\/shutdown -t3 -r now/#ca::ctrlaltdel:\/sbin\/shutdown -t3 -r now/" /etc/inittab
二:
获取相关开源程序:
nginx 官方当前稳定版为 nginx-1.2.4 ,我测试环境使用版本为nginx-1.3.3
pcre-8.31
nginx_upstream_check_module
ngx_cache_purge-1.6
请自行从网络下载
安装步骤:
#新建www用户组和www用户
复制代码 代码如下:
groupadd www
useradd -g www www -s /bin/false
useradd -g www www -s /bin/false
#创建相应的目录
复制代码 代码如下:
mkdir -p /data/html/www
mkdir -p /data/proxy_temp_dir
mkdir -p /data/proxy_cache_path
mkdir -p /data/logs
chown -r www:www /data/proxy_cache_path
chown -r www:www /data/proxy_temp_dir
chown -r www:www /data/html/
chown -r www:www /data/logs
mkdir -p /data/proxy_temp_dir
mkdir -p /data/proxy_cache_path
mkdir -p /data/logs
chown -r www:www /data/proxy_cache_path
chown -r www:www /data/proxy_temp_dir
chown -r www:www /data/html/
chown -r www:www /data/logs
#安装内核和openssl
复制代码 代码如下:
yum -y install openssl-devel kernel-devel
#安装pcre
复制代码 代码如下:
tar zxvf pcre-8.31.tar.gz
cd pcre-8.31
./configure --prefix=/usr/local/pcre
make
make install
cd pcre-8.31
./configure --prefix=/usr/local/pcre
make
make install
#安装nginx
复制代码 代码如下:
tar zxvf ngx_cache_purge-1.6.tar.gz
tar zxvf nginx-1.3.3.tar.gz
tar zxvf nginx_upstream_check_module.tar.gz
cd nginx-1.3.3
patch -p1 < /root/nginx_keepalived_install/nginx_upstream_check_module/check_1.2.2+.patch
./configure --prefix=/usr/local/nginx --user=www --group=www --with-http_stub_status_module --with-http_realip_module --with-http_gzip_static_module --with-openssl=/usr/ --with-pcre=/root/nginx_keepalived_install/pcre-8.31 --add-module=/root/nginx_keepalived_install/ngx_cache_purge-1.6 --add-module=/root/nginx_keepalived_install/nginx_upstream_check_module
make
make install
cp /root/nginx_keepalived_install/cut_nginx_log.sh /usr/local/nginx/sbin/
chmod +x /usr/local/nginx/sbin/cut_nginx_log.sh
echo -ne "00 00 * * * /bin/bash /usr/local/nginx/sbin/cut_nginx_log.sh" >>/var/spool/cron/root
service crond restart
chown -r www:www /usr/local/nginx/
cp /root/nginx_keepalived_install/nginx /etc/rc.d/init.d/
chmod +x /etc/rc.d/init.d/nginx
chkconfig nginx on
tar zxvf nginx-1.3.3.tar.gz
tar zxvf nginx_upstream_check_module.tar.gz
cd nginx-1.3.3
patch -p1 < /root/nginx_keepalived_install/nginx_upstream_check_module/check_1.2.2+.patch
./configure --prefix=/usr/local/nginx --user=www --group=www --with-http_stub_status_module --with-http_realip_module --with-http_gzip_static_module --with-openssl=/usr/ --with-pcre=/root/nginx_keepalived_install/pcre-8.31 --add-module=/root/nginx_keepalived_install/ngx_cache_purge-1.6 --add-module=/root/nginx_keepalived_install/nginx_upstream_check_module
make
make install
cp /root/nginx_keepalived_install/cut_nginx_log.sh /usr/local/nginx/sbin/
chmod +x /usr/local/nginx/sbin/cut_nginx_log.sh
echo -ne "00 00 * * * /bin/bash /usr/local/nginx/sbin/cut_nginx_log.sh" >>/var/spool/cron/root
service crond restart
chown -r www:www /usr/local/nginx/
cp /root/nginx_keepalived_install/nginx /etc/rc.d/init.d/
chmod +x /etc/rc.d/init.d/nginx
chkconfig nginx on
到这里nginx安装完毕,目前nginx所有的配置都是默认配置,我贴下我案例中的nginx配置,如有错误请大牛们指导.
nginx.conf
复制代码 代码如下:
user www www;
worker_processes 8;
worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000;
worker_rlimit_nofile 204800;
error_log /data/logs/error.log;
pid logs/nginx.pid;
events {
worker_connections 240800;
use epoll;
}
http {
include nginx_load_balance.conf;
#include proxy.conf;
include mime.types;
default_type application/octet-stream;
server_names_hash_bucket_size 128;
#log_format access '$remote_addr - $remote_user [$time_local] "$request" '
#'$status $body_bytes_sent "$http_referer" '
#'"$http_user_agent" $http_x_forwarded_for';
#access_log /data/logs/access.log access;
sendfile on;
tcp_nopush on;
tcp_nodelay on;
server_tokens off;
keepalive_timeout 60;
client_header_buffer_size 4k;
#large_client_header_buffers 4 32k;
client_max_body_size 10m;
client_header_timeout 120s;
client_body_timeout 120s;
send_timeout 120s;
gzip off;
gzip_min_length 1k;
gzip_buffers 4 16k;
output_buffers 1 512k;
postpone_output 1460;
#gzip_http_version 1.1;
gzip_comp_level 4;
gzip_types text/plain text/css text/javascript text/xml application/x-javascript application/xml application/xml+rss;
gzip_vary on;
server {
listen 80;
server_name localhost;
location / {
rewrite ^ http://www.test.com$request_uri?;
#root /data/html/www;
#index index.html index.htm;
}
error_page 404 /data/html/www/404.html;
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
location /status {
stub_status on;
access_log off;
}
location /nstatus {
check_status;
access_log off;
#allow some.ip.add.ress;
#deny all;
}
}
include vhost/*.conf;
}
nginx_load_balance.conf
复制代码 代码如下:
upstream dx {
ip_hash;
server 192.168.0.11:80;
server 192.168.0.12:80;
server 192.168.0.13:80;
server 192.168.0.14:80;
server 192.168.0.15:80;
check interval=3000 rise=2 fall=8 timeout=3000 type=http;
check_http_send "get / http/1.0\r\n\r\n";
check_http_expect_alive http_2xx http_3xx http_4xx;
#server 192.168.0.30:80; backup;
}
upstream lt {
ip_hash;
server 192.168.1.11:80;
server 192.168.1.12:80;
server 192.168.1.13:80;
server 192.168.1.14:80;
server 192.168.1.15:80;
check interval=3000 rise=2 fall=8 timeout=3000 type=http;
check_http_send "get / http/1.0\r\n\r\n";
check_http_expect_alive http_2xx http_3xx http_4xx;
#server 192.168.1.30:80; backup;
}
ip_hash;
server 192.168.0.11:80;
server 192.168.0.12:80;
server 192.168.0.13:80;
server 192.168.0.14:80;
server 192.168.0.15:80;
check interval=3000 rise=2 fall=8 timeout=3000 type=http;
check_http_send "get / http/1.0\r\n\r\n";
check_http_expect_alive http_2xx http_3xx http_4xx;
#server 192.168.0.30:80; backup;
}
upstream lt {
ip_hash;
server 192.168.1.11:80;
server 192.168.1.12:80;
server 192.168.1.13:80;
server 192.168.1.14:80;
server 192.168.1.15:80;
check interval=3000 rise=2 fall=8 timeout=3000 type=http;
check_http_send "get / http/1.0\r\n\r\n";
check_http_expect_alive http_2xx http_3xx http_4xx;
#server 192.168.1.30:80; backup;
}
proxy.conf
复制代码 代码如下:
proxy_temp_path /data/proxy_temp_dir; #指定临时文件目录
proxy_cache_path /data/proxy_cache_path levels=1:2 keys_zone=cache_one:2000m inactive=1d max_size=1g;
client_body_buffer_size 512k; #增加缓冲区代理缓冲客户端请求的最大字节数
proxy_connect_timeout 60; #增加连接后端服务器超时时间
proxy_read_timeout 60; #增加后端服务器响应请求超时时间
proxy_send_timeout 60; #增加后端服务器发送数据超时时间
proxy_buffer_size 32k; #增加代理请求缓存区大小
proxy_buffers 4 64k; #增加
proxy_busy_buffers_size 128k; #增加系统繁忙时可申请的proxy_buffers大小
proxy_temp_file_write_size 128k; #增加proxy缓存临时文件的大小
proxy_next_upstream error timeout invalid_header http_500 http_503 http_404; #增加故障转移,如果后端的服务器返回502、504、执行超时等错误,自动将请求转发到upstream负载均衡池中的另一台服务器,实现故障转移。
proxy_cache cache_one; #增加使用web缓存区cache_one
proxy_cache_path /data/proxy_cache_path levels=1:2 keys_zone=cache_one:2000m inactive=1d max_size=1g;
client_body_buffer_size 512k; #增加缓冲区代理缓冲客户端请求的最大字节数
proxy_connect_timeout 60; #增加连接后端服务器超时时间
proxy_read_timeout 60; #增加后端服务器响应请求超时时间
proxy_send_timeout 60; #增加后端服务器发送数据超时时间
proxy_buffer_size 32k; #增加代理请求缓存区大小
proxy_buffers 4 64k; #增加
proxy_busy_buffers_size 128k; #增加系统繁忙时可申请的proxy_buffers大小
proxy_temp_file_write_size 128k; #增加proxy缓存临时文件的大小
proxy_next_upstream error timeout invalid_header http_500 http_503 http_404; #增加故障转移,如果后端的服务器返回502、504、执行超时等错误,自动将请求转发到upstream负载均衡池中的另一台服务器,实现故障转移。
proxy_cache cache_one; #增加使用web缓存区cache_one
以上是nginx配置,下面是vhost中网站配置
xxxx_com.conf
复制代码 代码如下:
server
{
listen 192.168.0.1;
server_name xxx.com;
access_log /data/logs/dx.log dx;
location /
{
proxy_next_upstream http_502 http_504 error timeout invalid_header;
# proxy_cache cache_one;
# proxy_cache_valid 200 304 12h;
# proxy_cache_key $host$uri$is_args$args;
proxy_set_header host $http_host;
#proxy_set_header x-real-ip $remote_addr;
# proxy_set_header x-forwarded-for $remote_addr;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_headers_hash_max_size 51200;
proxy_headers_hash_bucket_size 6400;
proxy_pass http://dx;
#if ($request_uri ~* "^/upload/") {
#add_header cache-control 'max-age=86400';
#}
location ~* \.(gif|jpg|jpeg|png|flv|swf|ico)$
{
proxy_set_header host $http_host;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://dx;
add_header cache-control 'max-age=86400';
}
location ~* \.(js)$
{
proxy_set_header host $http_host;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://dx;
add_header cache-control 'max-age=600';
}
#expires -1;
add_header cache-control 'no-store, no-cache, must-revalidate';
add_header pragma no-cache;
}
location ~ /purge(/.*)
{
allow 127.0.0.1;
allow 192.168.0.0/16;
deny all;
#proxy_cache_purge cache_one $host$1$is_args$args;
}
location ~ .*\.(php|jsp|cgi|asp|aspx|flv|swf|xml)?$
{
proxy_set_header host $http_host;
#proxy_set_header x-forwarded-for $remote_addr;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://dx;
}
}
server
{
listen 192.168.1.1;
server_name xxxx.com;
access_log /data/logs/lt.log lt;
location /
{
proxy_next_upstream http_502 http_504 error timeout invalid_header;
#proxy_cache cache_one;
#proxy_cache_valid 200 304 12h;
#proxy_cache_key $host$uri$is_args$args;
proxy_set_header host $http_host;
#proxy_set_header x-real-ip $remote_addr;
proxy_set_header x-forwarded-for $remote_addr;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_headers_hash_max_size 51200;
proxy_headers_hash_bucket_size 6400;
proxy_pass http://lt;
#if ($request_uri ~* "^/upload/") {
#add_header cache-control 'max-age=86400';
#}
location ~* \.(gif|jpg|jpeg|png|flv|swf|ico)$
{
proxy_set_header host $http_host;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://lt;
add_header cache-control 'max-age=86400';
}
location ~* \.(js)$
{
proxy_set_header host $http_host;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://lt;
add_header cache-control 'max-age=600';
}
#expires -1;
add_header cache-control 'no-store, no-cache, must-revalidate';
add_header pragma no-cache;
}
location ~ /purge(/.*)
{
allow 127.0.0.1;
allow 192.168.0.0/16;
deny all;
#proxy_cache_purge cache_one $host$1$is_args$args;
}
location ~ .*\.(php|jsp|cgi|asp|aspx|flv|swf|xml)?$
{
proxy_set_header host $http_host;
#proxy_set_header x-forwarded-for $remote_addr;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://lt;
}
}
{
listen 192.168.0.1;
server_name xxx.com;
access_log /data/logs/dx.log dx;
location /
{
proxy_next_upstream http_502 http_504 error timeout invalid_header;
# proxy_cache cache_one;
# proxy_cache_valid 200 304 12h;
# proxy_cache_key $host$uri$is_args$args;
proxy_set_header host $http_host;
#proxy_set_header x-real-ip $remote_addr;
# proxy_set_header x-forwarded-for $remote_addr;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_headers_hash_max_size 51200;
proxy_headers_hash_bucket_size 6400;
proxy_pass http://dx;
#if ($request_uri ~* "^/upload/") {
#add_header cache-control 'max-age=86400';
#}
location ~* \.(gif|jpg|jpeg|png|flv|swf|ico)$
{
proxy_set_header host $http_host;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://dx;
add_header cache-control 'max-age=86400';
}
location ~* \.(js)$
{
proxy_set_header host $http_host;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://dx;
add_header cache-control 'max-age=600';
}
#expires -1;
add_header cache-control 'no-store, no-cache, must-revalidate';
add_header pragma no-cache;
}
location ~ /purge(/.*)
{
allow 127.0.0.1;
allow 192.168.0.0/16;
deny all;
#proxy_cache_purge cache_one $host$1$is_args$args;
}
location ~ .*\.(php|jsp|cgi|asp|aspx|flv|swf|xml)?$
{
proxy_set_header host $http_host;
#proxy_set_header x-forwarded-for $remote_addr;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://dx;
}
}
server
{
listen 192.168.1.1;
server_name xxxx.com;
access_log /data/logs/lt.log lt;
location /
{
proxy_next_upstream http_502 http_504 error timeout invalid_header;
#proxy_cache cache_one;
#proxy_cache_valid 200 304 12h;
#proxy_cache_key $host$uri$is_args$args;
proxy_set_header host $http_host;
#proxy_set_header x-real-ip $remote_addr;
proxy_set_header x-forwarded-for $remote_addr;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_headers_hash_max_size 51200;
proxy_headers_hash_bucket_size 6400;
proxy_pass http://lt;
#if ($request_uri ~* "^/upload/") {
#add_header cache-control 'max-age=86400';
#}
location ~* \.(gif|jpg|jpeg|png|flv|swf|ico)$
{
proxy_set_header host $http_host;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://lt;
add_header cache-control 'max-age=86400';
}
location ~* \.(js)$
{
proxy_set_header host $http_host;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://lt;
add_header cache-control 'max-age=600';
}
#expires -1;
add_header cache-control 'no-store, no-cache, must-revalidate';
add_header pragma no-cache;
}
location ~ /purge(/.*)
{
allow 127.0.0.1;
allow 192.168.0.0/16;
deny all;
#proxy_cache_purge cache_one $host$1$is_args$args;
}
location ~ .*\.(php|jsp|cgi|asp|aspx|flv|swf|xml)?$
{
proxy_set_header host $http_host;
#proxy_set_header x-forwarded-for $remote_addr;
proxy_set_header x-forwarded-for $proxy_add_x_forwarded_for;
proxy_pass http://lt;
}
}
至此,一套完整的nginx反向代理全部结束.
网站无法打开排查
1:ping域名看解析是否正常且是否连通.
2:配置本机hosts指向后端单机iis查看网站是否正常访问.
3:检查前端nginx进程和端口是否存在,
ps -ef |grep nginx
netstat -an |grep 80
系统相关配置
nginx
nginx目录/usr/local/nginx/
/usr/local/nginx/conf/nginx.conf nginx主配置文件
/usr/local/nginx/conf/nginx_load_balance.conf nginx反向代理轮询配置文件
/usr/local/nginx/conf/proxy.conf nginx缓存配置相关
/usr/local/nginx/conf/vhost/ nginx虚拟主机配置目录
snmp
/etc/snmp/snmpd.conf
日志切割
/root/scripts/ 所有日志切割脚本都在这个目录
crontab -l 列出计划任务
crontab -e 编辑计划任务
系统相关操作
nginx
重启nginx service nginx restart
重载nginx配置文件 service nginx reload
检测nginx配置语法是否正确 /usr/local/nginx/sbin/nginx -t
关闭nginx service nginx stop
启动nginx service nginx start
snmp
重启snmp service snmpd restart
关闭snmp service snmpd stop
启动snmp service snmpd start
最后编辑: chen 编辑于2012/11/07 17:57