首页 > 代码库 > Nginx源码研究二:NGINX的网络IO

Nginx源码研究二:NGINX的网络IO

  NGINX作为服务端的应用程序,在客户端发出数据后,服务端在做着这样一些处理,数据先会经过网卡,网卡会和操作系统做交互,经过操作系统的协议栈处理,再和不同的应用程序交互。

  在这里面涉及两个概念,一个是用户态,一个是内核态。应用程序通过系统调用函数进入内核空间,内核运行进行数据准备和数据拷贝等工作。对于NGINX来说,他是作为应用程序和操作系统交互,即是用户态和内核态的之间的交互,NGINX和内核交互方式有很多,例如open(),read() 等都是在和内核交互,而对于网络IO来说,我们知道linux下的网络IO主要有五种:

一是阻塞IO,应用程序调用内核函数,阻塞到内核完成数据准备和数据拷贝的全过程。

二是非阻塞IO,应用程序调用内核函数,不断的查问内核数据是否准备好,直到内核数据准备好,再阻塞到内核完成数据拷贝。

第三种是I/O复用,应用程序调用内核参数,告知内核关心的事件,内核在收到该事件准备好的数据后,通知应用程序,应用程序再阻塞到内核的数据拷贝完成,一般web服务器都采用这样的IO模型,例如Apache采用的select/poll,当然nginx也支持select/poll,但是在linux2.6后,NGINX一般选择epoll。

第四种是信号,应用程序安置一个信号处理函数,运行过程不阻塞,操作系统在将数据准备好后,会发送一个信号给应用程序,应用程序的信号处理函数可以做IO处理。

第五种的异步,应用程序在调用操作系统提供的异步IO函数,例如aio_read。

告知操作系统发出的请求无需立即返回,待操作系统做完数据准备和数据拷贝后,再通知应用程序通过系统调用函数指定的信号。

实际上网络I/O模型中,前四种都是同步模型,第五种是异步模型。

我们先看一下NGINX的module里面支持的IO模型。

|-- event|   |-- modules|   |   |-- ngx_aio_module.c|   |   |-- ngx_devpoll_module.c|   |   |-- ngx_epoll_module.c|   |   |-- ngx_eventport_module.c|   |   |-- ngx_kqueue_module.c|   |   |-- ngx_poll_module.c|   |   |-- ngx_rtsig_module.c|   |   |-- ngx_select_module.c|   |   `-- ngx_win32_select_module.c

在本章,将重点研究NGINX使用epoll做网络IO。

 

NGINX做网络IO,涉及到三个module:

module名称

类型

所在文件

ngx_events_module

NGX_CORE_MODULE

ngx_event.c

ngx_event_core_module

NGX_EVENT_MODULE

ngx_event.c

ngx_epoll_module

NGX_EVENT_MODULE

module/ngx_epoll_module.c

 

  在上一章,提到了module的启动过程,在init_cycle函数,对ngx_events_module的配置信息做了生成,通过分析配置文件,调用ngx_events_commands去对NGX_EVENT_MODULE做了配置信息的生成,分析,初始化。

 

一、master-work工作模式的处理过程

在解决配置信息的处理后,我们来看看进程的处理过程

1、  我们选择master-work工作模式

ngx_master_process_cycle(ngx_cycle_t *cycle){        ......        ngx_start_worker_processes(cycle, ccf->worker_processes,                               NGX_PROCESS_RESPAWN);    ngx_start_cache_manager_processes(cycle, 0);        ......}

 

2、

static voidngx_start_worker_processes(ngx_cycle_t *cycle, ngx_int_t n, ngx_int_t type){    ngx_int_t      i;    ngx_channel_t  ch;    ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "start worker processes");    ch.command = NGX_CMD_OPEN_CHANNEL;    for (i = 0; i < n; i++) {        ngx_spawn_process(cycle, ngx_worker_process_cycle,                          (void *) (intptr_t) i, "worker process", type);        ch.pid = ngx_processes[ngx_process_slot].pid; //主进程的情况        ch.slot = ngx_process_slot;        ch.fd = ngx_processes[ngx_process_slot].channel[0];        ngx_pass_open_channel(cycle, &ch);    }}

 

3、

//进程生成ngx_pid_tngx_spawn_process(ngx_cycle_t *cycle, ngx_spawn_proc_pt proc, void *data,    char *name, ngx_int_t respawn){   ……    pid = fork();    switch (pid) {    case -1:        ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,                      "fork() failed while spawning \"%s\"", name);        ngx_close_channel(ngx_processes[s].channel, cycle->log);        return NGX_INVALID_PID;    case 0: //子进程进入到proc        ngx_pid = ngx_getpid();        proc(cycle, data);        break;    default: //父进程继续        break;    }         ……    return pid;}

 

4、

static voidngx_worker_process_cycle(ngx_cycle_t *cycle, void *data){……    ngx_worker_process_init(cycle, worker);    ngx_setproctitle("worker process");……    for ( ;; ) {……        ngx_process_events_and_timers(cycle);        ……    }}

 

5、

static voidngx_worker_process_init(ngx_cycle_t *cycle, ngx_int_t worker){    ……    for (i = 0; ngx_modules[i]; i++) {        if (ngx_modules[i]->init_process) {            if (ngx_modules[i]->init_process(cycle) == NGX_ERROR) {                /* fatal */                exit(2);            }        }    } ……    if (ngx_add_channel_event(cycle, ngx_channel, NGX_READ_EVENT,                              ngx_channel_handler)        == NGX_ERROR)    {        /* fatal */        exit(2);    }}

 

6、

static ngx_int_tngx_event_process_init(ngx_cycle_t *cycle){    ......    //初始化module的action    ......    cycle->connections =        ngx_alloc(sizeof(ngx_connection_t) * cycle->connection_n, cycle->log);    if (cycle->connections == NULL) {        return NGX_ERROR;    }    c = cycle->connections;    cycle->read_events = ngx_alloc(sizeof(ngx_event_t) * cycle->connection_n,                                   cycle->log);    if (cycle->read_events == NULL) {        return NGX_ERROR;    }    rev = cycle->read_events;    for (i = 0; i < cycle->connection_n; i++) {        rev[i].closed = 1;        rev[i].instance = 1;#if (NGX_THREADS)        rev[i].lock = &c[i].lock;        rev[i].own_lock = &c[i].lock;#endif    }    cycle->write_events = ngx_alloc(sizeof(ngx_event_t) * cycle->connection_n,                                    cycle->log);    if (cycle->write_events == NULL) {        return NGX_ERROR;    }    wev = cycle->write_events;    for (i = 0; i < cycle->connection_n; i++) {        wev[i].closed = 1;#if (NGX_THREADS)        wev[i].lock = &c[i].lock;        wev[i].own_lock = &c[i].lock;#endif    }    i = cycle->connection_n;    next = NULL;    do {        i--;        c[i].data = next;        c[i].read = &cycle->read_events[i];        c[i].write = &cycle->write_events[i];        c[i].fd = (ngx_socket_t) -1;        next = &c[i];#if (NGX_THREADS)        c[i].lock = 0;#endif    } while (i);    cycle->free_connections = next;    cycle->free_connection_n = cycle->connection_n;    /* for each listening socket */    ls = cycle->listening.elts;    for (i = 0; i < cycle->listening.nelts; i++) {        ......        rev->handler = ngx_event_accept;        if (ngx_use_accept_mutex) {            continue;        }        if (ngx_event_flags & NGX_USE_RTSIG_EVENT) {            if (ngx_add_conn(c) == NGX_ERROR) {                return NGX_ERROR;            }        } else {            if (ngx_add_event(rev, NGX_READ_EVENT, 0) == NGX_ERROR) {                return NGX_ERROR;            }        }#endif    }    return NGX_OK;}

 

Nginx源码研究二:NGINX的网络IO