Nginx 采用多进程单线程模型:
1、nginx在启动后,在unix系统中会以daemon的方式在后台运行,后台进程包含一个master进程和多个worker进程。 2、nginx采用了异步非阻塞的方式来处理请求。
3、线程只有一个,所以同时能处理的请求只有一个,只是在请求间进行不断地切换而已,切换也是因为异步事件未准备好,而主动让出的。这里的切换是没有任何代价。 与多线程相比,这种事件处理方式是有很大的优势的,不需要创建线程,每个请求占用的内存也很少,没有上下文切换,事件处理非常的轻量级。并发数再多也不会导致无谓的资源浪费(上下文切换)。更多的并发数,只是会占用更多的内存而已。
① 核心模块(core)
该模块提供了 Nginx 服务运行的基本功能,如 Nginx 的进程管理、CPU 亲缘性、内存管理、配置文件解析、日志等功能。
② 事件模块(event)
该模块负责进行连接处理,提供对不同操作系统的 I/O 网络模型支持和自动根据系统平台选择最有效 I/O 网络模型的方法。
③ HTTP模块(http)
该模块提供 HTTP 处理的核心功能和部分功能模块,HTTP 核心功能维护了 HTTP 多个阶段的工作流,并实现了对各种 HTTP 功能模块的管理和调用。
④ Mail模块(mail)
该模块实现邮件代理功能,代理 IMAP、POP3、SMTP 协议。
⑤ Stream模块(stream)
该模块提供 TCP/UDP 会话的代理和负载相关功能。
⑥ 第三方模块
nginx的框架设计就这么简单,一目了然。 nginx的框架设计就这么难,这一点点东西居然要撑起数万乃至数十万的并发。
upstream 的流程后面单出一篇。
int ngx_cdecl main(int argc, char *const *argv)
{
//1、声明一波对象,打印一些基本信息,初始化一些东西
//2、通过 ngx_save_argv(&init_cycle, argc, argv),将 argv 参数拷贝到一份内存中
if (ngx_save_argv(&init_cycle, argc, argv) != NGX_OK) {
return 1;
}
/*
argv 参数是什么?就是管理者想nginx传入的信号,如 nginx -s reload之类的
在后面还能找到信号捕捉函数,我已经把源码也铺开了,后面再看
*/
//然后继续init
//3、信号捕捉
if (ngx_signal) {
return ngx_signal_process(cycle, ngx_signal);
}
//继续配置
/.../
#if !(NGX_WIN32)
if (ngx_init_signals(cycle->log) != NGX_OK) {
return 1;
}
if (!ngx_inherited && ccf->daemon) {
// 4、创建守护进程
if (ngx_daemon(cycle->log) != NGX_OK) {
return 1;
}
ngx_daemonized = 1;
}
if (ngx_inherited) {
ngx_daemonized = 1;
}
#endif
/.../
//5、启动进程循环咯
if (ngx_process == NGX_PROCESS_SINGLE) {
ngx_single_process_cycle(cycle);
} else {
ngx_master_process_cycle(cycle);
}
return 0;
}
/**
* Nginx的多进程运行模式
*/
void ngx_master_process_cycle(ngx_cycle_t *cycle) {
char *title;
u_char *p;
size_t size;
ngx_int_t i;
ngx_uint_t n, sigio;
sigset_t set;
struct itimerval itv;
ngx_uint_t live;
ngx_msec_t delay;
ngx_listening_t *ls;
ngx_core_conf_t *ccf;
/* 设置能接收到的信号 */
sigemptyset(&set);
sigaddset(&set, SIGCHLD);
sigaddset(&set, SIGALRM);
sigaddset(&set, SIGIO);
sigaddset(&set, SIGINT);
sigaddset(&set, ngx_signal_value(NGX_RECONFIGURE_SIGNAL));
sigaddset(&set, ngx_signal_value(NGX_REOPEN_SIGNAL));
sigaddset(&set, ngx_signal_value(NGX_NOACCEPT_SIGNAL));
sigaddset(&set, ngx_signal_value(NGX_TERMINATE_SIGNAL));
sigaddset(&set, ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
sigaddset(&set, ngx_signal_value(NGX_CHANGEBIN_SIGNAL));
if (sigprocmask(SIG_BLOCK, &set, NULL) == -1) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
"sigprocmask() failed");
}
sigemptyset(&set);
size = sizeof(master_process);
for (i = 0; i < ngx_argc; i++) {
size += ngx_strlen(ngx_argv[i]) + 1;
}
/* 保存进程标题 */
title = ngx_pnalloc(cycle->pool, size);
if (title == NULL) {
/* fatal */
exit(2);
}
p = ngx_cpymem(title, master_process, sizeof(master_process) - 1);
for (i = 0; i < ngx_argc; i++) {
*p++ = ' ';
p = ngx_cpystrn(p, (u_char *) ngx_argv[i], size);
}
ngx_setproctitle(title);
/* 获取核心配置 ngx_core_conf_t */
ccf = (ngx_core_conf_t *) ngx_get_conf(cycle->conf_ctx, ngx_core_module);
/* 启动工作进程 - 多进程启动的核心函数 */
ngx_start_worker_processes(cycle, ccf->worker_processes,
NGX_PROCESS_RESPAWN);
ngx_start_cache_manager_processes(cycle, 0);
ngx_new_binary = 0;
delay = 0;
sigio = 0;
live = 1;
/* 主线程循环 */
for (;;) {
/* delay用来设置等待worker推出的时间,master接受了退出信号后,
* 首先发送退出信号给worker,而worker退出需要一些时间*/
if (delay) {
if (ngx_sigalrm) {
sigio = 0;
delay *= 2;
ngx_sigalrm = 0;
}
ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
"termination cycle: %M", delay);
itv.it_interval.tv_sec = 0;
itv.it_interval.tv_usec = 0;
itv.it_value.tv_sec = delay / 1000;
itv.it_value.tv_usec = (delay % 1000) * 1000;
if (setitimer(ITIMER_REAL, &itv, NULL) == -1) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
"setitimer() failed");
}
}
ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "sigsuspend");
/* 等待信号的到来,阻塞函数 */
sigsuspend(&set);
ngx_time_update();
ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
"wake up, sigio %i", sigio);
/* 收到了SIGCHLD信号,有worker退出(ngx_reap == 1) */
if (ngx_reap) {
ngx_reap = 0;
ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "reap children");
live = ngx_reap_children(cycle);
}
if (!live && (ngx_terminate || ngx_quit)) {
ngx_master_process_exit(cycle);
}
/* 中止进程 */
if (ngx_terminate) {
if (delay == 0) {
delay = 50;
}
if (sigio) {
sigio--;
continue;
}
sigio = ccf->worker_processes + 2 /* cache processes */;
if (delay > 1000) {
ngx_signal_worker_processes(cycle, SIGKILL);
} else {
ngx_signal_worker_processes(cycle,
ngx_signal_value(NGX_TERMINATE_SIGNAL));
}
continue;
}
/* 退出进程 */
if (ngx_quit) {
ngx_signal_worker_processes(cycle,
ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
ls = cycle->listening.elts;
for (n = 0; n < cycle->listening.nelts; n++) {
if (ngx_close_socket(ls[n].fd) == -1) {
ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_socket_errno,
ngx_close_socket_n " %V failed", &ls[n].addr_text);
}
}
cycle->listening.nelts = 0;
continue;
}
/* 收到SIGHUP信号 重新初始化配置 */
if (ngx_reconfigure) {
ngx_reconfigure = 0;
if (ngx_new_binary) {
ngx_start_worker_processes(cycle, ccf->worker_processes,
NGX_PROCESS_RESPAWN);
ngx_start_cache_manager_processes(cycle, 0);
ngx_noaccepting = 0;
continue;
}
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reconfiguring");
cycle = ngx_init_cycle(cycle);
if (cycle == NULL) {
cycle = (ngx_cycle_t *) ngx_cycle;
continue;
}
ngx_cycle = cycle;
ccf = (ngx_core_conf_t *) ngx_get_conf(cycle->conf_ctx,
ngx_core_module);
ngx_start_worker_processes(cycle, ccf->worker_processes,
NGX_PROCESS_JUST_RESPAWN);
ngx_start_cache_manager_processes(cycle, 1);
/* allow new processes to start */
ngx_msleep(100);
live = 1;
ngx_signal_worker_processes(cycle,
ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
}
/* 当ngx_noaccepting==1时,会把ngx_restart设为1,重启worker */
if (ngx_restart) {
ngx_restart = 0;
ngx_start_worker_processes(cycle, ccf->worker_processes,
NGX_PROCESS_RESPAWN);
ngx_start_cache_manager_processes(cycle, 0);
live = 1;
}
/* 收到SIGUSR1信号,重新打开log文件 */
if (ngx_reopen) {
ngx_reopen = 0;
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reopening logs");
ngx_reopen_files(cycle, ccf->user);
ngx_signal_worker_processes(cycle,
ngx_signal_value(NGX_REOPEN_SIGNAL));
}
/* SIGUSER2,热代码替换 */
if (ngx_change_binary) {
ngx_change_binary = 0;
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "changing binary");
ngx_new_binary = ngx_exec_new_binary(cycle, ngx_argv);
}
/* 收到SIGWINCH信号不在接受请求,worker退出,master不退出 */
if (ngx_noaccept) {
ngx_noaccept = 0;
ngx_noaccepting = 1;
ngx_signal_worker_processes(cycle,
ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
}
}
}
抽出主要流程看的比较清楚:
void ngx_master_process_cycle(ngx_cycle_t *cycle) {
···
// 启动各个worker进程
ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_RESPAWN);
···
for (;;) {
···
if (···) {
// 这里主要是向各个进程发送命令
ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
}
}
}
先了解一下 ngx_channel_t,有点重要哈: master进程每次发送给worker进程的指令用如下的一个结构来完成封装:
typedef struct {
// 传递的 TCP 消息中的命令
ngx_uint_t command;
// 进程 ID,一般是发送命令方的进程 ID
ngx_pid_t pid;
// 表示发送命令方在 ngx_processes 进程数组间的序号
ngx_int_t slot;
// 通信的套接字句柄
ngx_fd_t fd;
}ngx_channel_t;
Nginx 针对 command 成员定义了如下命令:
// 打开频道,使用频道这种方式通信前必须发送的命令
#define NGX_CMD_OPEN_CHANNEL 1
// 关闭已经打开的频道,实际上也就是关闭套接字
#define NGX_CMD_CLOSE_CHANNEL 2
// 要求接收方正常地退出进程
#define NGX_CMD_QUIT 3
// 要求接收方强制地结束进程
#define NGX_CMD_TERMINATE 4
// 要求接收方重新打开进程已经打开过的文件
#define NGX_CMD_REOPEN 5
/**
* 创建工作进程
*/
static void ngx_start_worker_processes(ngx_cycle_t *cycle, ngx_int_t n,
ngx_int_t type) {
ngx_int_t i;
ngx_channel_t ch;
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "start worker processes");
ngx_memzero(&ch, sizeof(ngx_channel_t));
ch.command = NGX_CMD_OPEN_CHANNEL;
/* 循环创建工作进程 默认ccf->worker_processes=8个进程,根据CPU个数决定 */
for (i = 0; i < n; i++) {
/* 打开工作进程 (ngx_worker_process_cycle 回调函数,主要用于处理每个工作线程)*/
ngx_spawn_process(cycle, ngx_worker_process_cycle,
(void *) (intptr_t) i, "worker process", type);
ch.pid = ngx_processes[ngx_process_slot].pid;
ch.slot = ngx_process_slot;
ch.fd = ngx_processes[ngx_process_slot].channel[0];
ngx_pass_open_channel(cycle, &ch);
}
}
简写一下:
static void ngx_start_worker_processes(ngx_cycle_t *cycle, ngx_int_t n, ngx_int_t type) {
···
ngx_channel_t ch;
···
ch.command = NGX_CMD_OPEN_CHANNEL; //当前是新建了一个进程
for (i = 0; i < n; i++) {
//spawn,生成一个子进程
// ngx_worker_process_cycle:该子进程所进行的事件循环,这里先不管它什么循环
// worker进程在一个无限for循环中,不断的检查相应的事件模型中是否存在对应的事件,
// 然后将accept事件和read、write事件分开放入两个队列中,最后在事件循环中不断的处理事件
ngx_spawn_process(cycle, ngx_worker_process_cycle,
(void *) (intptr_t) i, "worker process", type);
// 下面的这段代码的主要作用是将新建进程这个事件通知到其他的进程,
// 其就会向ngx_processes数组的每个进程的channel[0]上写入当前广播的事件,也即这里的ch,
// 因为子进程之间也需要通信
ch.pid = ngx_processes[ngx_process_slot].pid;
ch.slot = ngx_process_slot; //该新建进程所存放的数组位置
ch.fd = ngx_processes[ngx_process_slot].channel[0];
// 将当前创建了子进程的事件广播给其余的进程
ngx_pass_open_channel(cycle, &ch);
}
}
这里啊,需要关注一下:
typedef struct {
...
// socketpair 创建的套接字对
ngx_socket_t channel[2];
}ngx_processes_t;
ngx_pid_t ngx_spawn_process(ngx_cycle_t *cycle, ngx_spawn_proc_pt proc, void *data, char *name, ngx_int_t respawn) {
···
// 在ngx_processes数组中存储了当前创建的所有进程,而ngx_last_process理解为end,
//只不过ngx_processes中记录的进程有可能有部分已经失效了。
//当前循环就是从头开始查找是否有某个进程已经失效了,
//如果已经失效了,则复用该进程位置,否则直接使用ngx_last_process所指向的位置
for (s = 0; s < ngx_last_process; s++) {
if (ngx_processes[s].pid == -1) {
break;
}
}
// 这里说明所创建的进程数达到了最大限度
if (s == NGX_MAX_PROCESSES) {
···
return NGX_INVALID_PID;
}
// NGX_PROCESS_DETACHED标志表示当前fork出来的进程与原来的父进程没有任何关系,比如进行nginx升级时,
// 新生成的master进程就与原先的master进程没有关系
if (respawn != NGX_PROCESS_DETACHED) {
//这里为什么采用sockpair?
/* 这里的socketpair()方法的主要作用是生成一对套接字流,用于主进程和子进程的通信,
这一对套接字会存储在ngx_processes[s].channel中,本质上这个字段是一个长度为2的整型数组。
在主进程和子进程 进行通信的之前,主进程会关闭其中一个,而子进程会关闭另一个,
然后相互之间往未关闭的另一个文件描述符中写入或读取数据即可实现通信。
AF_UNIX表示当前使用的是UNIX文件形式的socket地址族SOCK_STREAM指定了当前套接字建立的通信方式是管道流,
并且这个管道流是双向的,即管道双方都可以进行读写操作第三个参数protocol必须为0。
*/
if (socketpair(AF_UNIX, SOCK_STREAM, 0, ngx_processes[s].channel) == -1) {
···
return NGX_INVALID_PID;
}
···
// 将ngx_processes[s].channel[0]设置为非阻塞模式
if (ngx_nonblocking(ngx_processes[s].channel[0]) == -1) {
···
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
// 将ngx_processes[s].channel[1]设置为非阻塞模式
if (ngx_nonblocking(ngx_processes[s].channel[1]) == -1) {
···
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
on = 1;
// 将ngx_processes[s].channel[0]套接字管道设置为异步模式
if (ioctl(ngx_processes[s].channel[0], FIOASYNC, &on) == -1) {
···
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
// 当前还处于主进程中,这里的ngx_pid指向了主进程的进程id,当前方法的作用主要是将
// ngx_processes[s].channel[0]的操作权限设置给主进程,也就是说主进程通过向
// ngx_processes[s].channel[0]写入和读取数据来与子进程进行通信
if (fcntl(ngx_processes[s].channel[0], F_SETOWN, ngx_pid) == -1) {
···
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
// FD_CLOEXEC表示当前指定的套接字管道在子进程中可以使用,但是在execl()执行的程序中不可使用
if (fcntl(ngx_processes[s].channel[0], F_SETFD, FD_CLOEXEC) == -1) {
···
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
// FD_CLOEXEC表示当前指定的套接字管道在子进程中可以使用,但是在execl()执行的程序中不可使用
if (fcntl(ngx_processes[s].channel[1], F_SETFD, FD_CLOEXEC) == -1) {
···
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
// ngx_processes[s].channel[1]是用于给子进程监听相关事件使用的,当父进程向
// ngx_processes[s].channel[0]发布事件之后,
// ngx_processes[s].channel[1]中就会接收到对应的事件,从而进行相应的处理
ngx_channel = ngx_processes[s].channel[1];
} else {
// 如果是NGX_PROCESS_DETACHED模式,则表示当前是另外新起的一个master进程,因而将其管道值都置为-1
ngx_processes[s].channel[0] = -1;
ngx_processes[s].channel[1] = -1;
}
ngx_process_slot = s;
// fork()产生一个新的进程
pid = fork();
switch (pid) {
case -1:
// fork出错
···
return NGX_INVALID_PID;
case 0:
// 子进程执行的分支,这里的proc()方法是外部传进来的,也就是说,当前方法只是创建一个新的进程,
// 具体的进程处理逻辑,将交由外部代码块进行定义ngx_getpid()方法获取的就是当前新创建的子进程的进程id
ngx_pid = ngx_getpid();
proc(cycle, data);
break;
default:
// 父进程会走到这里
break;
}
···
// 父进程会走到这里,当前的pid是fork()之后父进程得到的新创建的子进程的pid
ngx_processes[s].pid = pid;
ngx_processes[s].exited = 0;
···
// 设置当前进程的各个属性,并且存储到ngx_processes数组中的对应位置
ngx_processes[s].proc = proc;
ngx_processes[s].data = data;
ngx_processes[s].name = name;
ngx_processes[s].exiting = 0;
···
if (s == ngx_last_process) {
ngx_last_process++;
}
return pid;
}
ngx_worker_process_cycle 子进程的回调函数
ngx_worker_process_cycle为子进程的回调函数,一切子进程的工作从这个方法开始。 Nginx的进程最终也是有事件驱动的,所有这个方法中,最终会调 ngx_process_events_and_timers事件驱动的核心函数。
/**
* 子进程 回调函数
* 每个进程的逻辑处理就从这个方法开始
*/
static void ngx_worker_process_cycle(ngx_cycle_t *cycle, void *data) {
ngx_int_t worker = (intptr_t) data;
ngx_process = NGX_PROCESS_WORKER;
ngx_worker = worker;
/* 工作进程初始化 */
ngx_worker_process_init(cycle, worker);
ngx_setproctitle("worker process");
/* 进程循环 */
for (;;) {
/* 判断是否是退出的状态,如果退出,则需要清空socket连接句柄 */
if (ngx_exiting) {
ngx_event_cancel_timers();
if (ngx_event_timer_rbtree.root
== ngx_event_timer_rbtree.sentinel) {
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "exiting");
ngx_worker_process_exit(cycle);
}
}
ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "worker cycle");
/* 事件驱动核心函数 */
ngx_process_events_and_timers(cycle);
if (ngx_terminate) {
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "exiting");
ngx_worker_process_exit(cycle);
}
/* 如果是退出 */
if (ngx_quit) {
ngx_quit = 0;
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0,
"gracefully shutting down");
ngx_setproctitle("worker process is shutting down");
if (!ngx_exiting) {
ngx_exiting = 1;
ngx_close_listening_sockets(cycle);
ngx_close_idle_connections(cycle);
}
}
/* 如果是重启 */
if (ngx_reopen) {
ngx_reopen = 0;
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reopening logs");
ngx_reopen_files(cycle, -1);
}
}
}
/**
* 这里主要是对当前进程进行初始化,为其设置优先级和打开的文件限制等参数。
* 最后会为当前进程添加一个监听channel[1]的连接,以不断读取master进程的消息,从而进行相应的处理
*/
static void ngx_worker_process_init(ngx_cycle_t *cycle, ngx_int_t worker) {
···
// 设置当前进程的优先级
if (worker >= 0 && ccf->priority != 0) {
if (setpriority(PRIO_PROCESS, 0, ccf->priority) == -1) {
···
}
}
// 设置当前进程能够打开的文件句柄数
// 简而言之就是设置核心文件能够使用的最大大小
···
// 需要注意的是,对于cache manager和cache loader进程,这里的worker传入的是-1,
// 表示这两个进程不需要设置亲核性
if (worker >= 0) {
// 获取当前worker的CPU亲核性
cpu_affinity = ngx_get_cpu_affinity(worker);
if (cpu_affinity) {
// 设置worker的亲核性
ngx_setaffinity(cpu_affinity, cycle->log); //就是绑定个CPU,后面专门出一篇写这个,这个我也是要收入囊中的
}
}
···
// 初始化空的set指令集合
sigemptyset(&set);
// ◆ SIG_BLOCK:将 set 参数指向信号集中的信号加入到信号掩码中。
// ◆ SIG_UNBLOCK:将 set 参数指向的信号集中的信号从信号掩码中删除。
// ◆ SIG_SETMASK:将 set 参数指向信号集设置为信号掩码。
// 这里就是直接初始化要阻塞的信号集,默认为空集
if (sigprocmask(SIG_SETMASK, &set, NULL) == -1) {
···
}
···
// 调用各个模块的init_process()方法进行进程模块的初始化,与本篇关系不大,后面讲模块了再说
···
// 这里主要是关闭当前进程中各个模块的channel[0]管道句柄
for (n = 0; n < ngx_last_process; n++) {
···
//关闭父进程的channel[1]
if (close(ngx_processes[n].channel[1]) == -1) { //这是个全局的processes,好吧
···
}
}
// 关闭当前进程的channel[0]管道句柄
if (close(ngx_processes[ngx_process_slot].channel[0]) == -1) {
···
}
···
// ngx_channel指向的是当前进程的channel[1]句柄,也即监听master进程发送消息的句柄。
// 当前方法中,首先会为当前的句柄创建一个connection对象,并且将其封装为一个事件,
//然后将该事件添加到对应的事件模型队列中以监听当前句柄的事件,事件的处理逻辑则主要有这里的ngx_channel_handler()方法进行。
//这里的ngx_channel_handler的主要处理逻辑是:根据当前收到的消息设置当前进程的一些标志位,或者更新某些缓存数据,
//如此,在当前进行的事件循环中,通过不断检查这些标志位,从而实现在事件进程中处理真正的逻辑。
//因而这里的ngx_channel_handler的处理效率是非常高的
if (ngx_add_channel_event(cycle, ngx_channel, NGX_READ_EVENT,
ngx_channel_handler) == NGX_ERROR) {
exit(2);
}
}
这里worker进程的初始化过程主要做了三件事:
为worker进程设置优先级和提升打开文件的权限;
设置worker进程的亲核性;
关闭当前进程与master进程通信的管道数组中的channel[0],然后监听channel[1],以处理master进程的消息;
当收到master进程发过来的命令后,就调用ngx_channel_handler处理。
篇幅过长了,本来这一篇还有:惊群处理、进程负载均衡处理、平滑重启等部分,就写在下一篇吧。