浅谈Nginx10m+高并发内核优化详解
何为高并发
- 默认的linux内核参数考虑的是最通用场景,不符合用于支持高并发访问的web服务器,所以需要修改linux内核参数,这样可以让nginx拥有更高的性能;
- 在优化内核时,可以做的事情很多,不过,我们通常会根据业务特点来进行调整,当nginx作为静态web内容服务器、反向代理或者提供压缩服务器的服务器时,期内核参数的调整都是不同的,这里针对最通用的、使nginx支持更多并发请求的tcp网络参数做简单的配置;
- 这些需要修改/etc/sysctl.conf来更改内核参数。
配置方法
配置详析
#表示单个进程较大可以打开的句柄数;
fs.file-max = 999999
#参数设置为 1 ,表示允许将time_wait状态的socket重新用于新的tcp链接,这对于服务器来说意义重大,因为总有大量time_wait状态的链接存在;
net.ipv4.tcp_tw_reuse = 1
#当keepalive启动时,tcp发送keepalive消息的频度;默认是2小时,将其设置为10分钟,可以更快的清理无效链接。
ner.ipv4.tcp_keepalive_time = 600
#当服务器主动关闭链接时,socket保持在fin_wait_2状态的较大时间
net.ipv4.tcp_fin_timeout = 30
#这个参数表示操作系统允许time_wait套接字数量的较大值,如果超过这个数字,time_wait套接字将立刻被清除并打印警告信息。
#该参数默认为180000,过多的time_wait套接字会使web服务器变慢。
net.ipv4.tcp_max_tw_buckets = 5000
#定义udp和tcp链接的本地端口的取值范围。
net.ipv4.ip_local_port_range = 1024 65000
#定义了tcp接受缓存的最小值、默认值、较大值。
net.ipv4.tcp_rmem = 10240 87380 12582912
#定义tcp发送缓存的最小值、默认值、较大值。
net.ipv4.tcp_wmem = 10240 87380 12582912
#当网卡接收数据包的速度大于内核处理速度时,会有一个列队保存这些数据包。这个参数表示该列队的较大值。
net.core.netdev_max_backlog = 8096
#表示内核套接字接受缓存区默认大小。
net.core.rmem_default = 6291456
#表示内核套接字发送缓存区默认大小。
net.core.wmem_default = 6291456
#表示内核套接字接受缓存区较大大小。
net.core.rmem_max = 12582912
#表示内核套接字发送缓存区较大大小。
net.core.wmem_max = 12582912
注意:以上的四条配置,需要根据业务逻辑和实际的硬件成本来综合考虑;
#与性能无关。用于解决tcp的syn***。
net.ipv4.tcp_syncookies = 1
#这个参数表示tcp三次握手建立阶段接受syn请求列队的较大长度,默认1024,将其设置的大一些可以使出现nginx繁忙来不及accept新连接的情况时,linux不至于丢失客户端发起的链接请求。
net.ipv4.tcp_max_syn_backlog = 8192
#这个参数用于设置启用timewait快速回收。
net.ipv4.tcp_tw_recycle = 1
选项默认值是128,这个参数用于调节系统同时发起的tcp连接数,在高并发的请求中,默认的值可能会导致链接超时或者重传,因此需要结合高并发请求数来调节此值。
net.core.somaxconn=262114
#选项用于设定系统中最多有多少个tcp套接字不被关联到任何一个用户文件句柄上。如果超过这个数字,孤立链接将立即被复位并输出警告信息。这个限制指示为了防止简单的dos***,不用过分依靠这个限制甚至认为的减小这个值,更多的情况是增加这个值。
net.ipv4.tcp_max_orphans=262114
为了方便使用,下方可以直接复制
net.ipv4.tcp_tw_reuse = 1 fs.file-max = 999999 net.ipv4.tcp_fin_timeout = 30 ner.ipv4.tcp_keepalive_time = 600
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。