首页 > 代码库 > (三)Netty源码学习笔记之boss线程处理流程
(三)Netty源码学习笔记之boss线程处理流程
尊重原创,转载注明出处,原文地址:http://www.cnblogs.com/cishengchongyan/p/6160194.html
本文我们将先从NioEventLoop开始来学习服务端的处理流程。话不多说,开始学习~~~~
我们从上文中已经知道server在启动的时候会开启两个线程:bossGroup和workerGroup,这两个线程分别是boss线程池(用于接收client请求)和worker线程池(用于处理具体的读写操作),这两个线程调度器都是NioEventLoopGroup,bossGroup有一个NioEventLoop,而worker线程池有n*cup数量个NioEventLoop。那么我们看看在NioEventLoop中的是如何开始的:
NioEventLoop本质上是一个线程调度器(继承自ScheduledExecutorService),当bind之后就开始run起一个线程:
(代码一)
1 @Override
2 protected void run() {
3 for (;;) {
4 boolean oldWakenUp = wakenUp.getAndSet(false);
5 try {
6 if (hasTasks()) {
7 selectNow();
8 } else {
9 select(oldWakenUp);
10
11 if (wakenUp.get()) {
12 selector.wakeup();
13 }
14 }
15
16 cancelledKeys = 0;
17 needsToSelectAgain = false;
18 final int ioRatio = this.ioRatio;
19 if (ioRatio == 100) {
20 processSelectedKeys();
21 runAllTasks();
22 } else {
23 final long ioStartTime = System.nanoTime();
24
25 processSelectedKeys();
26
27 final long ioTime = System.nanoTime() - ioStartTime;
28 runAllTasks(ioTime * (100 - ioRatio) / ioRatio);
29 }
30
31 if (isShuttingDown()) {
32 closeAll();
33 if (confirmShutdown()) {
34 break;
35 }
36 }
37 } catch (Throwable t) {
38 ...
39 }
40 }
41 }
这个for(;;)里面就是boss线程的核心处理流程:
【代码一主线】1,不断地监听selector拿到socket句柄然后创建channel。每次run的时候先拿到wakeup的值,并且set进去false(PS:wakeup是什么鬼?一个AtomicBoolean,代表是否用户唤醒,如果不人为将其set成true,永远是false)。
【代码一主线】2,如果任务队列中已有任务,那么selectNow(),(PS:selectNow是什么鬼?我们知道selector.select()是一个阻塞调用,而selectNow方法是个非阻塞方法,如果没有到达的socket句柄则返回0),因此若队列中已有任务的话应该立即开始执行,而不能阻塞到selector.select()上,否则则调用select()方法,继续看select()里面:
(代码二)
1 private void select(boolean oldWakenUp) throws IOException {
2 Selector selector = this.selector;
3 try {
4 int selectCnt = 0;
5 long currentTimeNanos = System.nanoTime();
6 long selectDeadLineNanos = currentTimeNanos + delayNanos(currentTimeNanos);
7 for (;;) {
8 long timeoutMillis = (selectDeadLineNanos - currentTimeNanos + 500000L) / 1000000L;
9 if (timeoutMillis <= 0) {
10 if (selectCnt == 0) {
11 selector.selectNow();
12 selectCnt = 1;
13 }
14 break;
15 }
16
17 int selectedKeys = selector.select(timeoutMillis);
18 selectCnt ++;
19
20 if (selectedKeys != 0 || oldWakenUp || wakenUp.get() || hasTasks() || hasScheduledTasks()) {
21 // 如果selectedKeys不为空、或者被用户唤醒、或者队列中有待处理任务、或者调度器中有任务,则break
22 break;
23 }
24 if (Thread.interrupted()) {
25 //如果线程被中断则重置selectedKeys,同时break出本次循环,所以不会陷入一个繁忙的循环。
26 selectCnt = 1;
27 break;
28 }
29
30 long time = System.nanoTime();
31 if (time - TimeUnit.MILLISECONDS.toNanos(timeoutMillis) >= currentTimeNanos) {
32 // selector超时
33 selectCnt = 1;
34 } else if (SELECTOR_AUTO_REBUILD_THRESHOLD > 0 && selectCnt >= SELECTOR_AUTO_REBUILD_THRESHOLD) {
35 // selector多次过早返回,重新建立并打开Selector
36 ...
37 }
38
39 currentTimeNanos = time;
40 }
41 ...
42 } catch (CancelledKeyException e) {
43 ...
44 }
45 }
我们看到,select()方法进入一个for循环去select阻塞等待socket(这里的selector的实现在是根据操作系统和netty的版本来定的,在最新的netty中是使用的linux的epoll模型),同时入参里有“超时时间”,如果超过了这个时间仍然没有socket到来则重新将selectCnt置为1重新循环等待,直到有socket到来。如果selectedKeys不为空、或者被用户唤醒、或者队列中有待处理任务、或者调度器中有任务,那么就是说该eventLoop有活干了,先break出去去干活,完了再打开selector重新阻塞等待。正常情况下会等待到一个socket,break出去之后回到代码一
【代码一主线】3,根据ioRatio来选择任务执行策略(PS:ioRatio是什么鬼?看了下用途应该是这样的,这个ioRatio代表该eventLoop期望在I/O操作上花费时间的比例)。而NioEventLoop中有两类操作,一类是I/O操作(读写之类),调用processSelectedKeys;一类是非I/O操作(例如register等),调用runAllTasks。如果ioRatio是100的话那么会按照顺序执行I/O操作->非I/O操作;如果不是会按照这个比例算出一个超时时间,在run任务队列的时候如果超过了这个时间会立即返回,确保I/O操作可以得到及时的调用。
我们关心的是I/O操作,那么进入processSelectedKeys()看下发生了什么吧。
(代码三)
1 private void processSelectedKeys() {
2 if (selectedKeys != null) {
3 processSelectedKeysOptimized(selectedKeys.flip());
4 } else {
5 processSelectedKeysPlain(selector.selectedKeys());
6 }
7 }
正常情况下会走到processSelectedKeysOptimized中:
(代码四)
1 private void processSelectedKeysOptimized(SelectionKey[] selectedKeys) {
2 for (int i = 0;; i ++) {
3 final SelectionKey k = selectedKeys[i];
4 if (k == null) {
5 break;
6 }
7 selectedKeys[i] = null;
8
9 final Object a = k.attachment();
10
11 if (a instanceof AbstractNioChannel) {
12 processSelectedKey(k, (AbstractNioChannel) a);
13 } else {
14 @SuppressWarnings("unchecked")
15 NioTask<SelectableChannel> task = (NioTask<SelectableChannel>) a;
16 processSelectedKey(k, task);
17 }
18
19 if (needsToSelectAgain) {
20 for (;;) {
21 if (selectedKeys[i] == null) {
22 break;
23 }
24 selectedKeys[i] = null;
25 i++;
26 }
27
28 selectAgain();
29 selectedKeys = this.selectedKeys.flip();
30 i = -1;
31 }
32 }
33 }
遍历拿到所有的SelectionKey,然后判断每个SelectionKey的attachment,上篇文章中已经分析过给ServerBootstrap注册的Channel是NioServerSocketChannel(继承自AbstractNioChannel),因此进入processSelectedKey中:
(代码五)
1 private static void processSelectedKey(SelectionKey k, AbstractNioChannel ch) {
2 final NioUnsafe unsafe = ch.unsafe();
3 if (!k.isValid()) {
4 unsafe.close(unsafe.voidPromise());
5 return;
6 }
7
8 try {
9 int readyOps = k.readyOps();
10 if ((readyOps & (SelectionKey.OP_READ | SelectionKey.OP_ACCEPT)) != 0 || readyOps == 0) {
11 unsafe.read();
12 if (!ch.isOpen()) {
13 return;
14 }
15 }
16 if ((readyOps & SelectionKey.OP_WRITE) != 0) {
17 ch.unsafe().forceFlush();
18 }
19 if ((readyOps & SelectionKey.OP_CONNECT) != 0) {
20 int ops = k.interestOps();
21 ops &= ~SelectionKey.OP_CONNECT;
22 k.interestOps(ops);
23
24 unsafe.finishConnect();
25 }
26 } catch (CancelledKeyException ignored) {
27 unsafe.close(unsafe.voidPromise());
28 }
29 }
在这里根据传入的SelectionKey的已就绪操作类型来决定下一步的操作,如果是一个读操作,那么进入AbstractNioMessageChannel$NioMessageUnsafe的read实现,这里代码很多,我们只贴一下核心的代码:
(代码六)
1 @Override
2 public void read() {
3 ...
4 final ChannelPipeline pipeline = pipeline();
5 ...
6 try {
7 int size = readBuf.size();
8 for (int i = 0; i < size; i ++) {
9 pipeline.fireChannelRead(readBuf.get(i));
10 }
11 ...
12 readBuf.clear();
13 pipeline.fireChannelReadComplete();
14 } finally {
15 }
16 }
核心就是这个pipeline.fireChannelRead(readBuf.get(i));,这已经到了pipeline阶段,可能有些人会误以为这是不是已经到了worker线程中,但是不可能啊,我们的代码其实在处于processSelectedKeys的逻辑里面。实际上,不论是boss还是worker,他们都是NioEventLoopGroup,玩法都是一样的,只不过职责不一样而已。boss也有自己的handler,上篇文章中我们提到了netty中的reactor模式的玩法,从Doug Lea的图中可以看出,boss(实际上就是mainReactor)的handler其实就是这个acceptor。
在此我们顺便学习一下netty中的handler:
从用途上来说,handler分为ChannelInboundHandler(读)和ChannelOutboundHandler(写),增加一层适配器产生了两handler的Adapter,我们使用到的类都是继承自这两个Adapter。我们经常用到的SimpleChannelInboundHandler就继承ChannelInboundHandlerAdapter,用于初始化用户handler链的ChannelInitializer和boss线程绑定的ServerBootstrapAcceptor也都继承于此。
回到【代码六主线】我们从pipeline.fireChannelRead继续追踪下去会追到ChannelInboundHandler的channelRead的实现,而这里的Hander就是ServerBootstrapAcceptor。
(代码七)
1 @Override
2 @SuppressWarnings("unchecked")
3 public void channelRead(ChannelHandlerContext ctx, Object msg) {
4 final Channel child = (Channel) msg;
5
6 child.pipeline().addLast(childHandler);
7
8 for (Entry<ChannelOption<?>, Object> e: childOptions) {
9 try {
10 if (!child.config().setOption((ChannelOption<Object>) e.getKey(), e.getValue())) {
11 }
12 } catch (Throwable t) {
13 }
14 }
15
16 for (Entry<AttributeKey<?>, Object> e: childAttrs) {
17 child.attr((AttributeKey<Object>) e.getKey()).set(e.getValue());
18 }
19
20 try {
21 childGroup.register(child).addListener(new ChannelFutureListener() {
22 @Override
23 public void operationComplete(ChannelFuture future) throws Exception {
24 if (!future.isSuccess()) {
25 forceClose(child, future.cause());
26 }
27 }
28 });
29 } catch (Throwable t) {
30 forceClose(child, t);
31 }
32 }
由于ServerBootstrapAcceptor 很重要,我们先看一下都有什么内容:
private static class ServerBootstrapAcceptor extends ChannelInboundHandlerAdapter {
private final EventLoopGroup childGroup;
private final ChannelHandler childHandler;
private final Entry<ChannelOption<?>, Object>[] childOptions;
private final Entry<AttributeKey<?>, Object>[] childAttrs;
}
我自己的理解:
childGroup就是subReactor(也就是worker线程);childHandler就是xxx;childOptions和childAttrs是为channel准备的一些参数。
回到【代码七主线】在这里做了3件事:
1.为客户端channel的pipeline中添加childHandler,那么这个childHandler是什么鬼呢?回忆一下上文中的服务端启动代码,有bootStrap.childHandler(xxx)这样的代码,所以此处就是把在服务端启动时我们定义好的Handler链绑定给每个channel。
2.把我们服务端初始化时的参数绑定到每个channel中。
3.childGroup.register(child).addListener(new ChannelFutureListener()),后面这个异步listener作用很明确,问题是这个childGroup是什么鬼?我理解应该就是worker线程了。详细说一下childGroup.register(child),继续跟下去,跟到AbstractChannel$AbstractUnsafe中
(代码八)
1 @Override
2 public final void register(EventLoop eventLoop, final ChannelPromise promise) {
3 ...
4 AbstractChannel.this.eventLoop = eventLoop;
5
6 if (eventLoop.inEventLoop()) {
7 register0(promise);
8 } else {
9 ...
10 } catch (Throwable t) {
11 }
12 }
13 }
继续register0:
(代码九)
1 private void register0(ChannelPromise promise) {
2 try {
3 if (!promise.setUncancellable() || !ensureOpen(promise)) {
4 return;
5 }
6 boolean firstRegistration = neverRegistered;
7 doRegister();
8 neverRegistered = false;
9 registered = true;
10 safeSetSuccess(promise);
11 pipeline.fireChannelRegistered();
12 if (firstRegistration && isActive()) {
13 pipeline.fireChannelActive();
14 }
15 } catch (Throwable t) {
16 }
17 }
这里核心有两步:
1.doRegister(),其实我们在上篇文章中分析过,就是将channel绑定到selector上。此处有点懵逼,我猜测是绑定到worker线程的selector中,如果有大神知道请留言我的微博。
2.pipeline.fireChannelRegistered(),继续往下跟跟进到ChannelInboundHandler的channelRegistered方法中,而此时会调用我们定义的ChannelInitializer,将我们定义的handler注册到pipeline中。
至此【代码一主线】执行完毕,我们浏览了一遍boss线程的在接收socket请求期间的处理流程,过程中是结合reactor模式去理解的,有些地方自己也有点不懂,还请各位指正。
总结一下:
1.boss线程就是个loop循环,打开selector -> 获得监听到的SelectionKey -> 处理I/O请求 -> 处理非I/O请求,而我们最关心的就是处理I/O请求(在processSelectedKeys()方法中完成)。
2.遍历准备就绪的SelectionKey,根据其可操作类型(read or write。。)来决定下一步的具体操作,我们着重去了解了read逻辑。
3.NioServerSocketChannel调用父类AbstractNioMessageChannel的unsafe类NioMessageUnsafe来处理读取逻辑:调用pipeline处理readbuf。
4.pipeline.fireChannelRead会调用ServerBootstrapAcceptor的channelRead:初始化客户端channel参数,将该channel绑定到worker线程的selector中,为channel注册用户定义的handler链。
再精炼一点:
boss线程只是接收客户端socket并初始化客户端channle,将channel丢给acceptor,acceptor会将这个channel注册到worker线程中。整个loop过程都是一个非阻塞过程(全部异步化),同时boss中不会做耗时的I/O读取,只是将channel丢给worker。因此是一个高效的loop过程。
下文中我们将分析worker线程的处理流程,敬请期待。。。
(三)Netty源码学习笔记之boss线程处理流程