nginx作为最优秀的web服务器之一,以轻量级,高并发而著称,用户遍及全球各地。下面来讲述一下nginx常规的一些优化。仅供参考!
谈到web服务器,并发是一个无法规避的问题。那我们来看一下nginx的并发数是如何设置的。
nginx并发数调整,主要有取决于worker_processes和worker_connections参数,下面介绍关于ngnix性能优化全局设置的相关参数。
worker_processes
:指定nginx开启的进程数,默认是1。每个进程消耗约12M左右的内存。进程数量主要是取决于服务器的CPU核心数。worker_connections
:用于定义 Nginx 每个进程的最大连接数,默认是 1024
。 最大客户端连接数由 worker_processes
和worker_connections
决定, 即max_client=worker_processes*worker_connections
,在作为反向代理时变为:max_clients = worker_processes * worker_connections/4
。进程的最大连接数受 Linux 系统进程的最大打开文件数限制, 在执行操作系统命令“ulimit -n 65536
”后 worker_connections
的设置才能生效(临时生效,点击查看ulimit -n 永久设置办法)。worker_rlimit_nofile
:用于绑定 worker 进程和 CPU, Linux 内核 2.4 以上可用,worker_rlimit_nofile =worker_connections =ulimit -n
。use
:用于指定nginx的工作模式。包括 select
、 poll
、 kqueue
、 epoll
、 rtsig
和 /dev/poll
。 其中 select 和 poll 都是标准的工作模式,kqueue 和 epoll 是高效的工作模式, 不同的是 epoll 用在 Linux 平台上, 而 kqueue 用在 BSD 系统中。 对于 Linux 系统, epoll 工作模式是首选。
具体例子如下:
user nobody nobody;
worker_processes 4;
error_log logs/error.log notice;
pid logs/nginx.pid;
worker_rlimit_nofile 65535;
events{
use epoll;
worker_connections 65536;
}
在编译 Nginx 时, 默认以 debug 模式进行, 而在 debug 模式下会插入很多跟踪和 ASSERT 之类的信息, 编译完成后, 一个 Nginx 要有好几兆字节。 而在编译前取消 Nginx 的 debug 模 式, 编译完成后 Nginx 只有几百千字节。 因此可以在编译之前, 修改相关源码, 取消 debug 模式。 具体方法如下: 在 Nginx 源码文件被解压后, 找到源码目录下的 auto/cc/gcc 文件, 在其中找到如下几行:
# debug
CFLAGS="$CFLAGS -g"
注释掉或删掉这两行, 即可取消 debug 模式。
在编译 Nginx 时, 默认的 GCC 编译参数是“-O” , 要优化 GCC 编译, 可以使用以下两 个参数:
# 为特定的 CPU 编译, 有效的值包括 : pentium, pentiumpro, pentium3,
# pentium4, athlon, opteron, amd64, sparc32, sparc64, ppc64
--with-cc-opt='-O3'
--with-cpu-opt=CPU
如果想确定服务器cpu的类型,可以做以下操作
cat /proc/cpuinfo | grep "model name"
内核参数的优化, 主要是在 Linux 系统中针对 Nginx 应用而进行的系统内核参数优化。 下面给出一个优化实例以供参考:
net.ipv4.tcp_max_tw_buckets = 6000
net.ipv4.ip_local_port_range = 1024 65000
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_syncookies = 1
net.core.somaxconn = 262144
net.core.netdev_max_backlog = 262144
net.ipv4.tcp_max_orphans = 262144
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_synack_retries = 1
net.ipv4.tcp_syn_retries = 1
net.ipv4.tcp_fin_timeout = 1
net.ipv4.tcp_keepalive_time = 30
将上面的配置添加到 /etc/sysctl.conf 文件中, 然后执行以下命令才会生效:
net.ipv4.tcp_max_tw_buckets
:选项用来设定timewait的数量,默认是180000,这里设为6000。net.ipv4.ip_local_port_range
:选项用来设定允许系统打开的端口范围。net.ipv4.tcp_tw_recycle
::选项用于设置启用timewait快速回收。net.ipv4.tcp_tw_reuse
:选项用于设置开启重用,允许将TIME-WAITsockets重新用于新的TCP连接。net.ipv4.tcp_syncookies
:选项用于设置开启SYNCookies,当出现SYN等待队列溢出时,启用cookies进行处理。net.core.somaxconn
:选项的默认值是128,这个参数用于调节系统同时发起的tcp连接数,在高并发的请求中,默认的值可能会导致链接超时或者重传,因此,需要结合并发请求数来调节此值。net.core.netdev_max_backlog
:选项表示当每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许发送到队列的数据包的最大数目。net.ipv4.tcp_max_orphans
:选项用于设定系统中最多有多少个TCP套接字不被关联到任何一个用户文件句柄上。如果超过这个数字,孤立连接将立即被复位并打印出警告信息。这个限制只是为了防止简单的DoS攻击。不能过分依靠这个限制甚至人为减小这个值,更多的情况下应该增加这个值。net.ipv4.tcp_max_syn_backlog
:选项用于记录那些尚未收到客户端确认信息的连接请求的最大值。对于有128MB内存的系统而言,此参数的默认值是1024,对小内存的系统则是128。net.ipv4.tcp_synack_retries
:参数的值决定了内核放弃连接之前发送SYN+ACK包的数量。net.ipv4.tcp_syn_retries
:选项表示在内核放弃建立连接之前发送SYN包的数量。net.ipv4.tcp_fin_timeout
:选项决定了套接字保持在FIN-WAIT-2状态的时间。默认值是60秒。正确设置这个值非常重要,有时即使一个负载很小的Web服务器,也会出现大量的死套接字而产生内存溢出的风险。net.ipv4.tcp_syn_retries
:选项表示在内核放弃建立连接之前发送SYN包的数量。如果发送端要求关闭套接字,net.ipv4.tcp_fin_timeout选项决定了套接字保持在FINWAIT-2状态的时间。接收端可以出错并永远不关闭连接,甚至意外宕机。net.ipv4.tcp_fin_timeout
的默认值是60秒。需要注意的是,即使一个负载很小的Web服务器,也会出现因为大量的死套接字而产生内存溢出的风险。FIN-WAIT-2的危险性比FIN-WAIT-1要小,因为它最多只能消耗1.5KB的内存,但是其生存期长些。net.ipv4.tcp_keepalive_time
:选项表示当keepalive启用的时候,TCP发送keepalive消息的频度。默认值是2(单位:小时)。#CentOS 5.x CentOS 6.x CentOS 7.x
vi /etc/security/limits.conf
#在最后一行添加以下代码
* soft nproc unlimited
* hard nproc unlimited
* soft nofile 65535
* hard nofile 65535
#CentOS 6.x(CentOS 5.x和CentOS 7.x不需要设置此项)
vi /etc/profile
#在最后一行添加如下
ulimit -SHn 65535
ulimit -SHu unlimited
ulimit -SHd unlimited
ulimit -SHm unlimited
ulimit -SHs unlimited
ulimit -SHt unlimited
ulimit -SHv unlimited
#刷新配置文件立即生效
source /etc/profile