1. epoll 原理

假设有 100 万用户同时与一个进程保持着 TCP 连接,而每一时刻只有几十个或几百个 TCP 连接时活跃的(接收到 TCP

包),也就是说,在每一时刻,进程只需要处理这 100 万连接中的一小部分连接。

select 和 poll 的做法是:进程每次收集事件的连接(其实这 100 万连接中的大部分都是没有事件发生的)都把这 100 万连

接的套接字传给操作系统(这首先就是用户态内存到内核态内存的大量复制),而由操作系统内核寻找这些连接上有没有未

处理的事件,将会是巨大的资源浪费,因此 select 和 poll 最多只能处理几千个并发连接。

而 epoll 则是在 Linux 内核中申请了一个简易的文件系统,把原先的一个 select 或者 poll 调用分成了 3 个部分:

  • 调用 epoll_create 建立 1 个 epoll 对象(在 epoll 文件系统中给这个句柄分配资源);
  • 调用 epoll_ctl 向 epoll 对象中添加这 100 万个连接的套接字;
  • 调用 epoll_wait 收集发生事件的连接。
Linux 2.6.35内核对 epoll 的实现

当某一个进程调用 epoll_create 方法时,Linux 内核会创建一个 eventpoll 结构体:

struct eventpoll {
...
/* 红黑树的根节点,这棵树中存储着所有添加到 epoll 中的事件,也就是这个 epoll 监控的事件 */
struct rb_root rbr; /* 双向链表 rdllist 保存着将要通过 epoll_wait 返回给用户的、满足条件的事件 */
struct list_head rdllist;
};

每一个 epoll 对象都有一个独立的 eventpoll 结构体,这个结构体会在内核空间中创造独立的内存,用于存储使用

epoll_ctl 方法向 epoll 对象中添加进来的事件。这些事件都会挂到 rbr 红黑树中,这样,重复添加的事件就可以通过红黑

树而高效地识别出来。

所有添加到 epoll 中的事件都会与设备(如网卡)驱动程序建立回调关系,即相应的事件发生时会调用 ep_poll_callback 回调

方法,它会把这样的事件放到上面的 rdllist 双向链表中。

在 epoll 中,对于每一个事件都会建立一个 epitem 结构体:

struct epitem {
...
/* 红黑树节点 */
struct rb_node rbn; /* 双向链表节点 */
struct list_head rdllink; /* 事件句柄等信息 */
struct epoll_filefd ffd; /* 指向所属的 eventpoll 对象 */
struct eventpoll *ep; /* 期待的事件类型 */
struct epoll_event event;
...
};

这里包含每一个事件对应着的信息。

当调用 epoll_wait 检查是否有事件的连接时,只是检查 eventpoll 对象中的 rdllist 双向链表是否有 epitem 元素,如果

rdllist 链表不为空,则把这里的事件复制到用户态内存中,同时将事件数量返回给用户。

2. epoll 的使用

2.1 epoll 的接口

2.1.1 epoll_create()

int epoll_create(int size);

系统调用 epoll_create() 创建一个 epoll 的句柄,之后 epoll 的使用都将依靠这个句柄来标识。参数 size 是告知 epoll 所

要处理的大致事件数目。不再使用 epoll 时,必须调用 close 关闭这个句柄。

2.1.2 epoll_ctl()

int epoll_ctl(int epfd, int op, int fd, struct epoll_event* event);

epoll_ctl 向 epoll 对象中添加、修改或者删除感兴趣的事件,返回 0 表示成功,否则返回 -1,此时需要根据 errno 错误码

判断错误类型。

  • epfd:是 epoll_create() 返回的句柄;
  • op:表示动作,可取的值有:
    • EPOLL_CTL_ADD: 添加新的事件到 epoll 中
    • EPOLL_CTL_MOD: 修改 epoll 中的事件
    • EPOLL_CTL_DEL:删除 epoll 中的事件
  • fd: 需要监听的描述符;
  • event: 是 epoll_event 结构体类型,用于告诉内核需要监听什么事件。epoll_event 的定义:
struct epoll_event {
__uint32_t events;
epoll_data_t data;
};
  • events:的取值有

    • EPOLLIN: 表示对应的连接上有数据可读(TCP 连接的远端主动关闭连接,也相当于可读事件,因为需要处理发送来的 FIN)
    • EPOLLOUT: 表示对应的连接上可以写入数据发送(主动向上游服务器发起非阻塞的 TCP 连接,连接建立成功的事件相当于可写事件)
    • EPOLLRDHUP:表示 TCP 连接的远端关闭或半关闭连接
    • EPOLLLPRI:表示对应的连接上有紧急数据需要读
    • EPOLLERR: 表示对应的连接发生错误
    • EPOLLHUP: 表示对应的连接被挂起
    • EPOLLLET: 表示将触发方式设置为边缘触发(ET),系统默认为水平触发(LT)
    • EPOLLONESHOT: 表示对这个事件只处理一次,下次需要处理时需重新加入 epoll
  • data:是一个 epoll_data 联合,定义如下:
typedef union epoll_data {
void *ptr;
int fd;
uint32_t u32;
uint64_t u64;
}epoll_data_t;

2.1.3 epoll_wait()

int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);

收集在 epoll 监控的事件中已经发生的事件,如果 epoll 中没有任何一个事件发生,则最多等待 timeout 毫秒后返回。

epoll_wait 的返回值表示当前发生的事件个数,如果返回 0,则表示本次调用中没有事件发生,如果返回 -1,则表示发生错

误,需要检查 errno 判断错误类型。

  • epfd:是 epoll_create() 返回的句柄;
  • events:是分配好的 epoll_event 结构体数组,epoll 将会把发生的事件复制到 events 数组中(events 不可以是空指针,

    内核只负责把数据复制到这个 events 数组中,不会去帮助我们在用户态中分配内存)
  • maxevents:表示本次可以返回的最大事件数目,通常 maxevents 参数与预分配的 events 数组的大小是相等的;
  • timeout:表示在没有检测到事件发生时最多等待的时间(单位为毫秒),如果 timeout 为 0,则表示 epoll_wait 在

    rdllist 链表为空时,立刻返回,不会等待。

2.2 epoll 的工作模式

epoll 有两种工作模式:LT(水平触发)模式和 ET(边缘触发)模式。

默认情况下,epoll 采用 LT 模式工作,这时可以处理阻塞和非阻塞套接字。ET 模式的效率要比 LT 模式高,它只支持非阻塞

字。ET 和 LT 模式的区别在于,当一个新的事件到来时,ET 模式下当然可以从 epoll_wait调用中获取这个事件,可是如果这

次没有把这个事件对应的套接字缓冲区处理完,在这个套接字没有新的事件再次到来时,在 ET 模式下是无法再次从

epoll_wait 调用中获取这个事件的;而 LT 模式则相反,只要一个事件对应的套接字缓冲区还有数据,就总能从 epoll_wait

中获取这个事件。因此,LT 模式相对简单,而在 ET 模式下事件发生时,如果没有彻底地将缓冲区数据处理完,则会导致缓冲

区中的用户请求得不到响应。默认情况下,Nginx 是通过 ET 模式使用 epoll 的。

3. ngx_epoll_module 模块

3.1 配置项

static ngx_command_t  ngx_epoll_commands[] = {

    /* 在调用 epoll_wait 时,将由第 2 和第 3 个参数告诉 Linux 内核一次最多可返回多少个事件。这个配置项
* 表示调用一次 epoll_wait 时最多可以返回的事件数,当然,它也会预分配那么多 epoll_event 结构体用于
* 存储事件 */
{ ngx_string("epoll_events"),
NGX_EVENT_CONF|NGX_CONF_TAKE1,
ngx_conf_set_num_slot,
0,
offsetof(ngx_epoll_conf_t, events),
NULL }, /* 指明在开启异步 I/O 且使用 io_setup 系统调用初始化异步 I/O 上下文环境时,初始分配的异步 I/O
* 事件个数 */
{ ngx_string("worker_aio_requests"),
NGX_EVENT_CONF|NGX_CONF_TAKE1,
ngx_conf_set_num_slot,
0,
offsetof(ngx_epoll_conf_t, aio_requests),
NULL }, ngx_null_command
};

存储配置项的配置结构体:

typedef struct {
ngx_uint_t events;
ngx_uint_t aio_requests;
} ngx_epoll_conf_t;

3.2 上下文结构体:ngx_epoll_module_ctx

static ngx_event_module_t  ngx_epoll_module_ctx = {
&epoll_name,
ngx_epoll_create_conf, /* create configuration */
ngx_epoll_init_conf, /* init configuration */ {
ngx_epoll_add_event, /* add an event */
ngx_epoll_del_event, /* delete an event */
ngx_epoll_add_event, /* enable an event */
ngx_epoll_del_event, /* disable an event */
ngx_epoll_add_connection, /* add an connection */
ngx_epoll_del_connection, /* delete an connection */
#if (NGX_HAVE_EVENTFD)
ngx_epoll_notify, /* trigger a notify */
#else
NULL, /* trigger a notify */
#endif
ngx_epoll_process_events, /* process the events */
ngx_epoll_init, /* init the events */
ngx_epoll_done, /* done the events */
}
};

3.2.1 ngx_epoll_init

static ngx_int_t ngx_epoll_init(ngx_cycle_t *cycle, ngx_msec_t timer)
{
ngx_epoll_conf_t *epcf; /* 获取配置项结构体 */
epcf = ngx_event_get_conf(cycle->conf_ctx, ngx_epoll_module); if (ep == -1)
{
/* 创建一个 epoll 句柄 */
ep = epoll_create(cycle->connection_n / 2); if (ep == -1)
{
ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_errno,
"epoll_create() failed");
return NGX_ERROR;
} #if (NGX_HAVE_EVENTFD)
if (ngx_epoll_notify_init(cycle->log) != NGX_OK) {
ngx_epoll_module_ctx.actions.notify = NULL;
}
#endif #if (NGX_HAVE_FILE_AIO)
ngx_epoll_aio_init(cycle, epcf);
#endif #if (NGX_HAVE_EPOLLRDHUP)
ngx_epoll_test_rdhup(cycle);
#endif
} if (nevents < epcf->events) {
if (event_list) {
ngx_free(event_list);
} /* 创建 event_list 数组,用于进行 epoll_wait 调用时传递内核态的事件 */
event_list = ngx_alloc(sizeof(struct epoll_event) * epcf->events,
cycle->log);
if (event_list == NULL) {
return NGX_ERROR;
}
} /* 将配置项epoll_events的参数赋给nevents */
nevents = epcf->events; /* 指明读写I/O的方法 */
ngx_io = ngx_os_io; /* 一旦设定Nginx使用某个事件处理模块,经过事件处理模块的初始化函数后,就把全局变量
* ngx_event_actions指向了该模块的封装 */
ngx_event_actions = ngx_epoll_module_ctx.actions; #if (NGX_HAVE_CLEAR_EVENT)
/* 默认是采用ET模式来使用epoll的,NGX_USE_CLEAR_EVENT宏实际上就是在告诉Nginx使用ET模式 */
ngx_event_flags = NGX_USE_CLEAR_EVENT
#else
ngx_event_flags = NGX_USE_LEVEL_EVENT
#endif
|NGX_USE_GREEDY_EVENT
|NGX_USE_EPOLL_EVENT; return NGX_OK;
}

3.2.2 ngx_epoll_add_event

static ngx_int_t ngx_epoll_add_event(ngx_event_t *ev, ngx_int_t event, ngx_uint_t flags)
{
int op;
uint32_t events, prev;
ngx_event_t *e;
ngx_connection_t *c;
struct epoll_event ee; /* 每个事件的 data 成员都存放着其对应的 ngx_connection_t 连接 */
c = ev->data; /* 下面会根据event参数确定当前事件时读事件还是写事件,
* 这会决定events是加上EPOLLIN标志还是EPOLLOUT标志位 */
events = (uint32_t) event; if (event == NGX_READ_EVENT) {
e = c->write;
prev = EPOLLOUT;
#if (NGX_READ_EVENT != EPOLLIN|EPOLLRDHUP)
events = EPOLLIN|EPOLLRDHUP;
#endif } else {
e = c->read;
prev = EPOLLIN|EPOLLRDHUP;
#if (NGX_WRITE_EVENT != EPOLLOUT)
events = EPOLLOUT;
#endif
} /* 根据active标志位确定是否为活跃事件,以决定到底是修改还是添加事件 */
if (e->active) {
op = EPOLL_CTL_MOD;
events |= prev; } else {
op = EPOLL_CTL_ADD;
} #if (NGX_HAVE_EPOLLEXCLUSIVE && NGX_HAVE_EPOLLRDHUP)
if (flags & NGX_EXCLUSIVE_EVENT) {
events &= ~EPOLLRDHUP;
}
#endif /* 加入flags参数到events标志位中 */
ee.events = events | (uint32_t) flags;
/* ptr成员存储的是ngx_connection_t连接 */
ee.data.ptr = (void *) ((uintptr_t) c | ev->instance); ngx_log_debug3(NGX_LOG_DEBUG_EVENT, ev->log, 0,
"epoll add event: fd:%d op:%d ev:%08XD",
c->fd, op, ee.events); /* 调用 epoll_ctl 方法向 epoll 中添加事件或者在 epoll 中修改事件 */
if (epoll_ctl(ep, op, c->fd, &ee) == -1) {
ngx_log_error(NGX_LOG_ALERT, ev->log, ngx_errno,
"epoll_ctl(%d, %d) failed", op, c->fd);
return NGX_ERROR;
} /* 将事件的 active 标志位置为 1,表示当前事件是活跃的 */
ev->active = 1;
#if 0
ev->oneshot = (flags & NGX_ONESHOT_EVENT) ? 1 : 0;
#endif return NGX_OK;
}

3.2.3 ngx_epoll_process_events

static ngx_int_t ngx_epoll_process_events(ngx_cycle_t *cycle, ngx_msec_t timer, ngx_uint_t flags)
{
int events;
uint32_t revents;
ngx_int_t instance, i;
ngx_uint_t level;
ngx_err_t err;
ngx_event_t *rev, *wev;
ngx_queue_t *queue;
ngx_connection_t *c; /* NGX_TIMER_INFINITE == INFTIM */ ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
"epoll timer: %M", timer); /* 调用 epoll_wait 获取事件。注意,timer 参数是在 process_events 调用时传入的 */
events = epoll_wait(ep, event_list, (int) nevents, timer); err = (events == -1) ? ngx_errno : 0; /* 判断flags标志位是否指示要更新时间或ngx_event_timer_alarm是否为1 */
if (flags & NGX_UPDATE_TIME || ngx_event_timer_alarm) {
ngx_time_update();
} if (err) {
if (err == NGX_EINTR) { if (ngx_event_timer_alarm) {
ngx_event_timer_alarm = 0;
return NGX_OK;
} level = NGX_LOG_INFO; } else {
level = NGX_LOG_ALERT;
} ngx_log_error(level, cycle->log, err, "epoll_wait() failed");
return NGX_ERROR;
} if (events == 0) {
if (timer != NGX_TIMER_INFINITE) {
return NGX_OK;
} ngx_log_error(NGX_LOG_ALERT, cycle->log, 0,
"epoll_wait() returned no events without timeout");
return NGX_ERROR;
} /* 遍历本次 epoll_wait 返回的所有事件 */
for (i = 0; i < events; i++) {
c = event_list[i].data.ptr; /* uintptr_t 在 64 位平台上为:typedef unsigned long int upintptr_t;
* 在 32 位平台上为:typedef unsigned int uintptr_t;
* 该类型主要是为了跨平台,其长度总是所在平台的位数,常用于存放地址. */ /* 将地址的最后一位取出来,用 instance 变量标识 */
instance = (uintptr_t) c & 1;
/* 无论是 32 位还是 64 位机器,其地址的最后 1 位肯定是 0,可以用下面这行语句把
* ngx_connection_t 的地址还原到真正的地址值 */
c = (ngx_connection_t *) ((uintptr_t) c & (uintptr_t) ~1); /* 取出读事件 */
rev = c->read; /* 判断这个读事件是否是过期事件 */
if (c->fd == -1 || rev->instance != instance) { /* 当 fd 套接字描述符为 -1 或者 instance 标志位不相等时,
* 表示这个事件已经过期了,不用处理 */ /*
* the stale event from a file descriptor
* that was just closed in this iteration
*/ ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
"epoll: stale event %p", c);
continue;
} /* 取出事件类型 */
revents = event_list[i].events; ngx_log_debug3(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
"epoll: fd:%d ev:%04XD d:%p",
c->fd, revents, event_list[i].data.ptr); /* 若事件发生错误或被挂起 */
if (revents & (EPOLLERR|EPOLLHUP)) {
ngx_log_debug2(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
"epoll_wait() error on fd:%d ev:%04XD",
c->fd, revents); /*
* if the error events were returned, add EPOLLIN and EPOLLOUT
* to handle the events at least in one active handler
*/ revents |= EPOLLIN|EPOLLOUT;
} #if 0
if (revents & ~(EPOLLIN|EPOLLOUT|EPOLLERR|EPOLLHUP)) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, 0,
"strange epoll_wait() events fd:%d ev:%04XD",
c->fd, revents);
}
#endif /* 如果是读事件且该事件是活跃的 */
if ((revents & EPOLLIN) && rev->active) { #if (NGX_HAVE_EPOLLRDHUP)
if (revents & EPOLLRDHUP) {
rev->pending_eof = 1;
} rev->available = 1;
#endif rev->ready = 1; /* flags 参数中含有 NGX_POST_EVENTS 表示这批事件要延后处理 */
if (flags & NGX_POST_EVENTS) {
/* 如果要在 post 队列中延后处理该事件,首先要判断它是新连接事件还是普通事件,
* 以决定把它加入到 ngx_posted_accept_events 队列或者 ngx_posted_events 队列
* 中 */
queue = rev->accept ? &ngx_posted_accept_events
: &ngx_posted_events; /* 将这个事件添加到相应的延后执行队列中 */
ngx_post_event(rev, queue); } else {
/* 立即调用读事件的回调方法来处理这个事件 */
rev->handler(rev);
}
} /* 取出写事件 */
wev = c->write; /* 如果写事件且事件是活跃的 */
if ((revents & EPOLLOUT) && wev->active) { /* 检测该事件是否是过期的 */
if (c->fd == -1 || wev->instance != instance) { /* 如果 fd 描述符为 -1 或者 instance 标志位不相等时,表示这个
* 事件是过期的,不用处理 */
/*
* the stale event from a file descriptor
* that was just closed in this iteration
*/ ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
"epoll: stale event %p", c);
continue;
} wev->ready = 1;
#if (NGX_THREADS)
wev->complete = 1;
#endif /* 若该事件要延迟处理 */
if (flags & NGX_POST_EVENTS) {
/* 将该写事件添加到延迟执行队列中 */
ngx_post_event(wev, &ngx_posted_events); } else {
/* 立即调用这个写事件的回调方法来处理这个事件 */
wev->handler(wev);
}
}
} return NGX_OK;
}

ngx_epoll_process_events 方法会收集当前触发的所有事件,对于不需要加入到 post 队列延后处理的事件,该方法会立即执行

它们的回调方法,这其实是在做分发事件的工作,只是它会在自己的进程中调用这些回调方法而已,因此,每一个回调方法都不能

导致进程休眠或者消耗太多时间,以免 epoll 不能即时地处理其他事件.

什么是过期事件?

假设 epoll_wait 一次返回 3 个事件,在第 1 个事件的处理过程中,由于业务的需要,所以关闭了一个连接,而这个连接恰好对

应第 3 个事件。这样的话,在处理到第 3 个事件时,这个事件就已经是过期事件了,一旦处理必然出错。但是单纯把这个连接

的 fd 套接字置为 -1 是不能解决问题的。

如下场景:

假设第 3 个事件对应的 ngx_connection_t 连接中的 fd 套接字原先是 50,处理第 1 个事件时把这个连接的套接字关闭了,同

时置为 -1,并且调用 ngx_free_connection 将该连接归还给连接池。在 ngx_epoll_process_events 方法的循环中开始处理第 2

个事件,恰好第 2 个事件是建立新连接事件,调用 ngx_get_connection 从连接池中取出的连接非常可能就是刚刚释放的第 3 个

事件对应的连接。由于套接字 50 刚刚被释放,Linux 内核非常有可能把刚刚释放的套接字 50 又分配给新建立的连接。因此,

在循环中处理第 3 个事件时,这个事件就是过期的了。它对应的事件是关闭的连接,而不是新建立的连接。

因此,解决这个问题,依靠于 instance 标志位。当调用 ngx_get_connection 从连接池中获取一个新连接时,instance 标志位

就会置反。这样,当这个 ngx_connection_t 连接重复使用时,它的 instance 标志位一定是不同的。因此,在

ngx_epoll_process_events 方法中一旦判断 instance 发生了变化,就认为是过期事件而不予处理。

3.3 模块的定义

ngx_module_t  ngx_epoll_module = {
NGX_MODULE_V1,
&ngx_epoll_module_ctx, /* module context */
ngx_epoll_commands, /* module directives */
NGX_EVENT_MODULE, /* module type */
NULL, /* init master */
NULL, /* init module */
NULL, /* init process */
NULL, /* init thread */
NULL, /* exit thread */
NULL, /* exit process */
NULL, /* exit master */
NGX_MODULE_V1_PADDING
};

最新文章

  1. iOS开发系列--Objective-C之协议、代码块、分类
  2. senlin __init__() got an unexpected keyword argument &#39;additional_headers&#39;
  3. IOS系统概述与层次
  4. [聚类算法] K-means 算法
  5. Bootstrap弹窗插件(拟态框)关闭后回调函数
  6. SQL Server技术问题之游标优缺点
  7. 感受机房管理化繁为简-新款KVM使用心得
  8. [terry笔记]Oracle会话追踪(二):TKPROF
  9. python 中调用windows系统api操作剪贴版
  10. KVM几种缓存模式
  11. UVA 10911 Forming Quiz Teams(dp + 集合最优配对问题)
  12. CSS3实战开发:使用CSS3实现photoshop的过滤效果
  13. hdu_5776_sum(前缀和维护)
  14. 【Linux相识相知】yum的配置使用和程序包的编译安装
  15. 1.Nginx服务应用
  16. Struts2中类数据封装的方式
  17. vue父页面给子页面传递数据
  18. 关于无限试用JetBrains产品的方案
  19. 《算法》第五章部分程序 part 5
  20. android studio怎么导入appcompat-v7

热门文章

  1. 解决 Ubuntu 19 安装openjdk 8后与openjfx不兼容
  2. js之数据类型(对象类型——构造器对象——数组2)
  3. mac下MySQL出现乱码的解决方法
  4. Phoenix批量提交优化,官网的demo
  5. 04-【servlet转发和重定向】
  6. Django静态资源配置
  7. js失效问题
  8. kotlin的loop和Range、list和map
  9. memset初始化数组的坑
  10. mysql增删查改练习