【面试】一篇文章帮你彻底搞清楚“I/O多路复用”和“异步I/O”的前世今生
曾经的vip服务
在网络的初期,网民很少,服务器完全无压力,那时的技术也没有现在先进,通常用一个线程来全程跟踪处理一个请求。因为这样最简单。
其实代码实现大家都知道,就是服务器上有个serversocket在某个端口监听,接收到客户端的连接后,会创建一个socket,并把它交给一个线程进行后续处理。
线程主要从socket读取客户端传过来的数据,然后进行业务处理,并把结果再写入socket传回客户端。
由于网络的原因,socket创建后并不一定能立刻从它上面读取数据,可能需要等一段时间,此时线程也必须一直阻塞着。在向socket写入数据时,也可能会使线程阻塞。
这里准备了一个示例,主要逻辑如下:
客户端:创建20个socket并连接到服务器上,再创建20个线程,每个线程负责一个socket。
服务器端:接收到这20个连接,创建20个socket,接着创建20个线程,每个线程负责一个socket。
为了模拟服务器端的socket在创建后不能立马读取数据,让客户端的20个线程分别休眠5-10之间的一个随机秒数。
客户端的20个线程会在第5秒到第10秒这段时间内陆陆续续的向服务器端发送数据,服务器端的20个线程也会陆陆续续接收到数据。
/** * @author lixinjie * @since 2019-05-07 */public class bioserver {
static atomicinteger counter = new atomicinteger(0); static simpledateformat sdf = new simpledateformat("hh:mm:ss"); public static void main(string[] args) { try { serversocket ss = new serversocket(); ss.bind(new inetsocketaddress("localhost", 8080)); while (true) { socket s = ss.accept(); processwithnewthread(s); } } catch (exception e) { e.printstacktrace(); } } static void processwithnewthread(socket s) { runnable run = () -> { inetsocketaddress rsa = (inetsocketaddress)s.getremotesocketaddress(); system.out.println(time() + "->" + rsa.gethostname() + ":" + rsa.getport() + "->" + thread.currentthread().getid() + ":" + counter.incrementandget()); try { string result = readbytes(s.getinputstream()); system.out.println(time() + "->" + result + "->" + thread.currentthread().getid() + ":" + counter.getanddecrement()); s.close(); } catch (exception e) { e.printstacktrace(); } }; new thread(run).start(); } static string readbytes(inputstream is) throws exception { long start = 0; int total = 0; int count = 0; byte[] bytes = new byte[1024]; //开始读数据的时间 long begin = system.currenttimemillis(); while ((count = is.read(bytes)) > -1) { if (start < 1) { //第一次读到数据的时间 start = system.currenttimemillis(); } total += count; } //读完数据的时间 long end = system.currenttimemillis(); return "wait=" + (start - begin) + "ms,read=" + (end - start) + "ms,total=" + total + "bs"; }
static string time() { return sdf.format(new date()); }}
/** * @author lixinjie * @since 2019-05-07 */public class client {
public static void main(string[] args) { try { for (int i = 0; i < 20; i++) { socket s = new socket(); s.connect(new inetsocketaddress("localhost", 8080)); processwithnewthread(s, i); } } catch (ioexception e) { e.printstacktrace(); } }
static void processwithnewthread(socket s, int i) { runnable run = () -> { try { //睡眠随机的5-10秒,模拟数据尚未就绪 thread.sleep((new random().nextint(6) + 5) * 1000); //写1m数据,为了拉长服务器端读数据的过程 s.getoutputstream().write(preparebytes()); //睡眠1秒,让服务器端把数据读完 thread.sleep(1000); s.close(); } catch (exception e) { e.printstacktrace(); } }; new thread(run).start(); } static byte[] preparebytes() { byte[] bytes = new byte[1024*1024*1]; for (int i = 0; i < bytes.length; i++) { bytes[i] = 1; } return bytes; }}
执行结果如下:
时间->ip:port->线程id:当前线程数15:11:52->127.0.0.1:55201->10:115:11:52->127.0.0.1:55203->12:215:11:52->127.0.0.1:55204->13:315:11:52->127.0.0.1:55207->16:415:11:52->127.0.0.1:55208->17:515:11:52->127.0.0.1:55202->11:615:11:52->127.0.0.1:55205->14:715:11:52->127.0.0.1:55206->15:815:11:52->127.0.0.1:55209->18:915:11:52->127.0.0.1:55210->19:1015:11:52->127.0.0.1:55213->22:1115:11:52->127.0.0.1:55214->23:1215:11:52->127.0.0.1:55217->26:1315:11:52->127.0.0.1:55211->20:1415:11:52->127.0.0.1:55218->27:1515:11:52->127.0.0.1:55212->21:1615:11:52->127.0.0.1:55215->24:1715:11:52->127.0.0.1:55216->25:1815:11:52->127.0.0.1:55219->28:1915:11:52->127.0.0.1:55220->29:20
时间->等待数据的时间,读取数据的时间,总共读取的字节数->线程id:当前线程数15:11:58->wait=5012ms,read=1022ms,total=1048576bs->17:2015:11:58->wait=5021ms,read=1022ms,total=1048576bs->13:1915:11:58->wait=5034ms,read=1008ms,total=1048576bs->11:1815:11:58->wait=5046ms,read=1003ms,total=1048576bs->12:1715:11:58->wait=5038ms,read=1005ms,total=1048576bs->23:1615:11:58->wait=5037ms,read=1010ms,total=1048576bs->22:1515:11:59->wait=6001ms,read=1017ms,total=1048576bs->15:1415:11:59->wait=6016ms,read=1013ms,total=1048576bs->27:1315:11:59->wait=6011ms,read=1018ms,total=1048576bs->24:1215:12:00->wait=7005ms,read=1008ms,total=1048576bs->20:1115:12:00->wait=6999ms,read=1020ms,total=1048576bs->14:1015:12:00->wait=7019ms,read=1007ms,total=1048576bs->26:915:12:00->wait=7012ms,read=1015ms,total=1048576bs->21:815:12:00->wait=7023ms,read=1008ms,total=1048576bs->25:715:12:01->wait=7999ms,read=1011ms,total=1048576bs->18:615:12:02->wait=9026ms,read=1014ms,total=1048576bs->10:515:12:02->wait=9005ms,read=1031ms,total=1048576bs->19:415:12:03->wait=10007ms,read=1011ms,total=1048576bs->16:315:12:03->wait=10006ms,read=1017ms,total=1048576bs->29:215:12:03->wait=10010ms,read=1022ms,total=1048576bs->28:1
可以看到服务器端确实为每个连接创建一个线程,共创建了20个线程。
客户端进入休眠约5-10秒,模拟连接上数据不就绪,服务器端线程在等待,等待时间约5-10秒。
客户端陆续结束休眠,往连接上写入1m数据,服务器端开始读取数据,整个读取过程约1秒。
可以看到,服务器端的工作线程会把时间花在“等待数据”和“读取数据”这两个过程上。
这有两个不好的地方:
一是有很多客户端同时发起请求的话,服务器端要创建很多的线程,可能会因为超过了上限而造成崩溃。
二是每个线程的大部分时光中都是在阻塞着,无事可干,造成极大的资源浪费。
开头已经说了那个年代网民很少,所以,不可能会有大量请求同时过来。至于资源浪费就浪费吧,反正闲着也是闲着。
来个简单的小例子:
饭店共有10张桌子,且配备了10位服务员。只要有客人来了,大堂经理就把客人带到一张桌子,并安排一位服务员全程陪同。
即使客人暂时不需要服务,服务员也一直在旁边站着。可能觉着是一种浪费,其实非也,这就是尊贵的vip服务。
其实,vip映射的是一对一的模型,主要体现在“专用”上或“私有”上。
真正的多路复用技术
多路复用技术原本指的是,在通信方面,多种信号或数据(从宏观上看)交织在一起,使用同一条传输通道进行传输。
这样做的目的,一方面可以充分利用通道的传输能力,另一方面自然是省时省力省钱啦。
其实这个概念非常的“生活化”,随手就可以举个例子:
一条小水渠里水在流,在一端往里倒入大量乒乓球,在另一端用网进行过滤,把乒乓球和水流分开。
这就是一个比较“土”的多路复用,首先在发射端把多种信号或数据进行“混合”,接着是在通道上进行传输,最后在接收端“分离”出自己需要的信号或数据。
相信大家都看出来了,这里的重点其实就是处理好“混合”和“分离”,对于不同的信号或数据,有不同的处理方法。
比如以前的有线电视是模拟信号,即电磁波。一家一般只有一根信号线,但可以同时接多个电视,每个电视任意换台,互不影响。
这是由于不同频率的波可以混合和分离。(当然,可能不是十分准确,明白意思就行了。)
再比如城市的高铁站一般都有数个站台供高铁(同时)停靠,但城市间的高铁轨道单方向只有一条,如何保证那么多趟高铁安全运行呢?
很明显是分时使用,每趟高铁都有自己的时刻。多趟高铁按不同的时刻出站相当于混合,按不同的时刻进站相当于分离。
总结一下,多路指的是多种不同的信号或数据或其它事物,复用指的是共用同一个物理链路或通道或载体。
可见,多路复用技术是一种一对多的模型,“多”的这一方复用了“一”的这一方。
其实,一对多的模型主要体现在“公用”上或“共享”上。
您先看着,我一会再过来
一对一服务是典型的有钱任性,虽然响应及时、服务周到,但不是每个人都能享受的,毕竟还是“屌丝”多嘛,那就来个共享服务吧。
所以实际当中更多的情况是,客人坐下后,会给他一个菜单,让他先看着,反正也不可能立马点餐,服务员就去忙别的了。
可能不时的会有服务员从客人身旁经过,发现客人还没有点餐,就会主动去询问现在需要点餐吗?
如果需要,服务员就给你写菜单,如果不需要,服务员就继续往前走了。
这种情况饭店整体运行的也很好,但是服务员人数少多了。现在服务10桌客人,4个服务员绰绰有余。(这节省的可都是纯利润呀。)
因为10桌客人同时需要服务的情况几乎是不会发生的,绝大部分情况都是错开的。如果真有的话,那就等会好了,又不是120/119,人命关天的。
回到代码里,情况与之非常相似,完全可以采用相同的理论去处理。
连接建立后,找个地方把它放到那里,可以暂时先不管它,反正此时也没有数据可读。
但是数据早晚会到来的,所以,要不时的去询问每个连接有数据没有,有的话就读取数据,没有的话就继续不管它。
其实这个模式在java里早就有了,就是java nio,这里的大写字母“n”是单词“new”,即“新”的意思,主要是为了和上面的“一对一”进行区分。
先铺垫一下吧
现在需要把socket交互的过程再稍微细化一些。客户端先请求连接,connect,服务器端然后接受连接,accept,然后客户端再向连接写入数据,write,接着服务器端从连接上读出数据,read。
和打电话的场景一样,主叫拨号,connect,被叫接听,accept,主叫说话,speak,被叫聆听,listen。主叫给被叫打电话,说明主叫找被叫有事,所以被叫关注的是接通电话,听对方说。
客户端主动向服务器端发起请求,说明客户端找服务器端有事,所以服务器端关注的是接受请求,读取对方传来的数据。这里把接受请求,读取数据称为服务器端感兴趣的操作。
在java nio中,接受请求的操作,用op_accept表示,读取数据的操作,用op_read表示。
我决定先过一遍饭店的场景,让首次接触java nio的同学不那么迷茫。就是把常规的场景进行了定向整理,稍微有点刻意,明白意思就行了。
1、专门设立一个“跑腿”服务员,工作职责单一,就是问问客人是否需要服务。
2、站在门口接待客人,本来是大堂经理的工作,但是他不愿意在门口盯着,于是就委托给跑腿服务员,你帮我盯着,有人来了告诉我。
于是跑腿服务员就有了一个任务,替大堂经理盯梢。终于来客人了,跑腿服务员赶紧告诉了大堂经理。
3、大堂经理把客人带到座位上,对跑腿服务员说,客人接下来肯定是要点餐的,但是现在在看菜单,不知道什么时候能看好,所以你不时的过来问问,看需不需要点餐,需要的话就再喊来一个“点餐”服务员给客人写菜单。
于是跑腿服务员就又多了一个任务,就是盯着这桌客人,不时来问问,如果需要服务的话,就叫点餐服务员过来服务。
4、跑腿服务员在某次询问中,客人终于决定点餐了,跑题服务员赶紧找来一个点餐服务员为客人写菜单。
5、就这样,跑腿服务员既要盯着门外新过来的客人,也要盯着门内已经就坐的客人。新客人来了,通知大堂经理去接待。就坐的客人决定点餐了,通知点餐服务员去写菜单。
事情就这样一直循环的持续下去,一切,都挺好。角色明确,职责单一,配合很好。
大堂经理和点餐服务员是需求的提供者或实现者,跑腿服务员是需求的发现者,并识别出需求的种类,需要接待的交给大堂经理,需要点餐的交给点餐服务员。
哈哈,java nio来啦
代码的写法非常的固定,可以配合着后面的解说来看,这样就好理解了,如下:
/** * @author lixinjie * @since 2019-05-07 */public class nioserver {
static int clientcount = 0; static atomicinteger counter = new atomicinteger(0); static simpledateformat sdf = new simpledateformat("hh:mm:ss"); public static void main(string[] args) { try { selector selector = selector.open(); serversocketchannel ssc = serversocketchannel.open(); ssc.configureblocking(false); ssc.register(selector, selectionkey.op_accept); ssc.bind(new inetsocketaddress("localhost", 8080)); while (true) { selector.select(); set<selectionkey> keys = selector.selectedkeys(); iterator<selectionkey> iterator = keys.iterator(); while (iterator.hasnext()) { selectionkey key = iterator.next(); iterator.remove(); if (key.isacceptable()) { serversocketchannel ssc1 = (serversocketchannel)key.channel(); socketchannel sc = null; while ((sc = ssc1.accept()) != null) { sc.configureblocking(false); sc.register(selector, selectionkey.op_read); inetsocketaddress rsa = (inetsocketaddress)sc.socket().getremotesocketaddress(); system.out.println(time() + "->" + rsa.gethostname() + ":" + rsa.getport() + "->" + thread.currentthread().getid() + ":" + (++clientcount)); } } else if (key.isreadable()) { //先将“读”从感兴趣操作移出,待把数据从通道中读完后,再把“读”添加到感兴趣操作中 //否则,该通道会一直被选出来 key.interestops(key.interestops() & (~ selectionkey.op_read)); processwithnewthread((socketchannel)key.channel(), key); } } } } catch (exception e) { e.printstacktrace(); } }
static void processwithnewthread(socketchannel sc, selectionkey key) { runnable run = () -> { counter.incrementandget(); try { string result = readbytes(sc); //把“读”加进去 key.interestops(key.interestops() | selectionkey.op_read); system.out.println(time() + "->" + result + "->" + thread.currentthread().getid() + ":" + counter.get()); sc.close(); } catch (exception e) { e.printstacktrace(); } counter.decrementandget(); }; new thread(run).start(); } static string readbytes(socketchannel sc) throws exception { long start = 0; int total = 0; int count = 0; bytebuffer bb = bytebuffer.allocate(1024); //开始读数据的时间 long begin = system.currenttimemillis(); while ((count = sc.read(bb)) > -1) { if (start < 1) { //第一次读到数据的时间 start = system.currenttimemillis(); } total += count; bb.clear(); } //读完数据的时间 long end = system.currenttimemillis(); return "wait=" + (start - begin) + "ms,read=" + (end - start) + "ms,total=" + total + "bs"; } static string time() { return sdf.format(new date()); }}
它的大致处理过程如下:
1、定义一个选择器,selector。
相当于设立一个跑腿服务员。
2、定义一个服务器端套接字通道,serversocketchannel,并配置为非阻塞的。
相等于聘请了一位大堂经理。
3、将套接字通道注册到选择器上,并把感兴趣的操作设置为op_accept。
相当于大堂经理给跑腿服务员说,帮我盯着门外,有客人来了告诉我。
4、进入死循环,选择器不时的进行选择。
相当于跑腿服务员一遍又一遍的去询问、去转悠。
5、选择器终于选择出了通道,发现通道是需要acceptable的。
相当于跑腿服务员终于发现门外来客人了,客人是需要接待的。
6、于是服务器端套接字接受了这个通道,开始处理。
相当于跑腿服务员把大堂经理叫来了,大堂经理开始着手接待。
7、把新接受的通道配置为非阻塞的,并把它也注册到了选择器上,该通道感兴趣的操作为op_read。
相当于大堂经理把客人带到座位上,给了客人菜单,并又把客人委托给跑腿服务员,说客人接下来肯定是要点餐的,你不时的来问问。
8、选择器继续不时的进行选择着。
相当于跑腿服务员继续不时的询问着、转悠着。
9、选择器终于又选择出了通道,这次发现通道是需要readable的。
相当于跑腿服务员终于发现了一桌客人有了需求,是需要点餐的。
10、把这个通道交给了一个新的工作线程去处理。
相当于跑腿服务员叫来了点餐服务员,点餐服务员开始为客人写菜单。
11、这个工作线程处理完后,就被回收了,可以再去处理其它通道。
相当于点餐服务员写好菜单后,就走了,可以再去为其他客人写菜单。
12、选择器继续着重复的选择工作,不知道什么时候是个头。
相当于跑腿服务员继续着重复的询问、转悠,不知道未来在何方。
相信你已经看出来了,大堂经理相当于服务器端套接字,跑腿服务员相当于选择器,点餐服务员相当于worker线程。
启动服务器端代码,使用同一个客户端代码,按相同的套路发20个请求,结果如下:
时间->ip:port->主线程id:当前连接数16:34:39->127.0.0.1:56105->1:116:34:39->127.0.0.1:56106->1:216:34:39->127.0.0.1:56107->1:316:34:39->127.0.0.1:56108->1:416:34:39->127.0.0.1:56109->1:516:34:39->127.0.0.1:56110->1:616:34:39->127.0.0.1:56111->1:716:34:39->127.0.0.1:56112->1:816:34:39->127.0.0.1:56113->1:916:34:39->127.0.0.1:56114->1:1016:34:39->127.0.0.1:56115->1:1116:34:39->127.0.0.1:56116->1:1216:34:39->127.0.0.1:56117->1:1316:34:39->127.0.0.1:56118->1:1416:34:39->127.0.0.1:56119->1:1516:34:39->127.0.0.1:56120->1:1616:34:39->127.0.0.1:56121->1:1716:34:39->127.0.0.1:56122->1:1816:34:39->127.0.0.1:56123->1:1916:34:39->127.0.0.1:56124->1:20
时间->等待数据的时间,读取数据的时间,总共读取的字节数->线程id:当前线程数16:34:45->wait=1ms,read=1018ms,total=1048576bs->11:516:34:45->wait=0ms,read=1054ms,total=1048576bs->10:516:34:45->wait=0ms,read=1072ms,total=1048576bs->13:616:34:45->wait=0ms,read=1061ms,total=1048576bs->14:516:34:45->wait=0ms,read=1140ms,total=1048576bs->12:416:34:46->wait=0ms,read=1001ms,total=1048576bs->15:516:34:46->wait=0ms,read=1062ms,total=1048576bs->17:616:34:46->wait=0ms,read=1059ms,total=1048576bs->16:516:34:47->wait=0ms,read=1001ms,total=1048576bs->19:416:34:47->wait=0ms,read=1001ms,total=1048576bs->20:416:34:47->wait=0ms,read=1015ms,total=1048576bs->18:316:34:47->wait=0ms,read=1001ms,total=1048576bs->21:216:34:48->wait=0ms,read=1032ms,total=1048576bs->22:416:34:49->wait=0ms,read=1002ms,total=1048576bs->23:316:34:49->wait=0ms,read=1001ms,total=1048576bs->25:216:34:49->wait=0ms,read=1028ms,total=1048576bs->24:416:34:50->wait=0ms,read=1008ms,total=1048576bs->28:416:34:50->wait=0ms,read=1033ms,total=1048576bs->27:316:34:50->wait=1ms,read=1002ms,total=1048576bs->29:216:34:50->wait=0ms,read=1001ms,total=1048576bs->26:2
服务器端接受20个连接,创建20个通道,并把它们注册到选择器上,此时不需要额外线程。
当某个通道已经有数据时,才会用一个线程来处理它,所以,线程“等待数据”的时间是0,“读取数据”的时间还是约1秒。
因为20个通道是陆陆续续有数据的,所以服务器端最多时是6个线程在同时运行的,换句话说,用包含6个线程的线程池就可以了。
对比与结论:
处理同样的20个请求,一个需要用20个线程,一个需要用6个线程,节省了70%线程数。
在本例中,两种感兴趣的操作共用一个选择器,且选择器运行在主线程里,worker线程是新的线程。
其实对于选择器的个数、选择器运行在哪个线程里、是否使用新的线程来处理请求都没有要求,要根据实际情况来定。
比如说redis,和处理请求相关的就一个线程,选择器运行在里面,处理请求的程序也运行在里面,所以这个线程既是i/o线程,也是worker线程。
当然,也可以使用两个选择器,一个处理op_accept,一个处理op_read,让它们分别运行在两个单独的i/o线程里。对于能快速完成的操作可以直接在i/o线程里做了,对于非常耗时的操作一定要使用worker线程池来处理。
这种处理模式就是被称为的多路复用i/o,多路指的是多个socket通道,复用指的是只用一个线程来管理它们。
再稍微分析一下
一对一的形式,一个桌子配一个服务员,一个socket分配一个线程,响应速度最快,毕竟是vip嘛,但是效率很低,服务员大部分时间都是在站着,线程大部分时间都是在等待。
多路复用的形式,所有桌子共用一个跑腿服务员,所有socket共用一个选择器线程,响应速度肯定变慢了,毕竟是一对多嘛。但是效率提高了,点餐服务员在需要点餐时才会过去,工作线程在数据就绪时才会开始工作。
从vip到多路复用,形式上确实有很大的不同,其本质是从一对一到一对多的转变,其实就是牺牲了响应速度,换来了效率的提升,不过综合性能还是得到了极大的改进。
就饭店而言,究竟几张桌子配一个跑腿服务员,几张桌子配一个点餐服务员,经过一段时间运行,一定会有一个最优解。
就程序而言,究竟需要几个选择器线程,几个工作线程,经过评估测试后,也会有一个最优解。
一旦达到最优解后,就不可能再提升了,这同样是由多路复用这种一对多的形式所限制的。就像一对一的形式限制一样。
人们的追求是无止境的,如何对多路复用继续提升呢?答案一定是具有颠覆性的,即抛弃多路复用,采用全新的形式。
还以饭店为例,如何在最优解的情况下,既要继续减少服务员数量,还要使效率提升呢?可能有些朋友已经猜到了,那就是抛弃服务员服务客人这种模式,把饭店改成自助餐厅。
在客人进门时,把餐具给他,并告诉他就餐时长、不准浪费等这些规则,然后就不用管了。客人自己选餐,自己吃完,自己走人,不用再等服务员了,因此也不再需要服务员了。(收拾桌子的除外。)
这种模式对应到程序里,其实就是aio,在java里也早就有了。
嘻嘻,java aio来啦
代码的写法非常的固定,可以配合着后面的解说来看,这样就好理解了,如下:
/** * @author lixinjie * @since 2019-05-13 */public class aioserver {
static int clientcount = 0; static atomicinteger counter = new atomicinteger(0); static simpledateformat sdf = new simpledateformat("hh:mm:ss"); public static void main(string[] args) { try { asynchronousserversocketchannel assc = asynchronousserversocketchannel.open(); assc.bind(new inetsocketaddress("localhost", 8080)); //非阻塞方法,其实就是注册了个回调,而且只能接受一个连接 assc.accept(null, new completionhandler<asynchronoussocketchannel, object>() {
@override public void completed(asynchronoussocketchannel asc, object attachment) { //再次注册,接受下一个连接 assc.accept(null, this); try { inetsocketaddress rsa = (inetsocketaddress)asc.getremoteaddress(); system.out.println(time() + "->" + rsa.gethostname() + ":" + rsa.getport() + "->" + thread.currentthread().getid() + ":" + (++clientcount)); } catch (exception e) { } readfromchannelasync(asc); }
@override public void failed(throwable exc, object attachment) { } }); //不让主线程退出 synchronized (aioserver.class) { aioserver.class.wait(); } } catch (exception e) { e.printstacktrace(); } }
static void readfromchannelasync(asynchronoussocketchannel asc) { //会把数据读入到该buffer之后,再触发工作线程来执行回调 bytebuffer bb = bytebuffer.allocate(1024*1024*1 + 1); long begin = system.currenttimemillis(); //非阻塞方法,其实就是注册了个回调,而且只能接受一次读取 asc.read(bb, null, new completionhandler<integer, object>() { //从该连接上一共读到的字节数 int total = 0; /** * @param count 表示本次读取到的字节数,-1表示数据已读完 */ @override public void completed(integer count, object attachment) { counter.incrementandget(); if (count > -1) { total += count; } int size = bb.position(); system.out.println(time() + "->count=" + count + ",total=" + total + "bs,buffer=" + size + "bs->" + thread.currentthread().getid() + ":" + counter.get()); if (count > -1) {//数据还没有读完 //再次注册回调,接受下一次读取 asc.read(bb, null, this); } else {//数据已读完 try { asc.close(); } catch (exception e) { e.printstacktrace(); } } counter.decrementandget(); }
@override public void failed(throwable exc, object attachment) { } }); long end = system.currenttimemillis(); system.out.println(time() + "->exe read req,use=" + (end -begin) + "ms" + "->" + thread.currentthread().getid()); } static string time() { return sdf.format(new date()); }}
它的大致处理过程如下:
1、初始化一个asynchronousserversocketchannel对象,并开始监听
2、通过accept方法注册一个“完成处理器”的接受连接回调,即completionhandler,用于在接受到连接后的相关操作。
3、当客户端连接过来后,由系统来接受,并创建好asynchronoussocketchannel对象,然后触发该回调,并把该对象传进该回调,该回调会在worker线程中执行。
4、在接受连接回调里,再次使用accept方法注册一次相同的完成处理器对象,用于让系统接受下一个连接。就是这种注册只能使用一次,所以要不停的连续注册,人家就是这样设计的。
5、在接受连接回调里,使用asynchronoussocketchannel对象的read方法注册另一个接受数据回调,用于在接受到数据后的相关操作。
6、当客户端数据过来后,由系统接受,并放入指定好的bytebuffer中,然后触发该回调,并把本次接受到的数据字节数传入该回调,该回调会在worker线程中执行。
7、在接受数据回调里,如果数据没有接受完,需要再次使用read方法把同一个对象注册一次,用于让系统接受下一次数据。这和上面的套路是一样的。
8、客户端的数据可能是分多次传到服务器端的,所以接受数据回调会被执行多次,直到数据接受完为止。多次接受到的数据合起来才是完整的数据,这个一定要处理好。
9、关于bytebuffer,要么足够的大,能够装得下完整的客户端数据,这样多次接受的数据直接往里追加即可。要么每次把bytebuffer中的数据移到别的地方存储起来,然后清空bytebuffer,用于让系统往里装入下一次接受的数据。
注:如果出现bytebuffer空间不足,则系统不会装入数据,就会导致客户端数据总是读不完,极有可能进入死循环。
启动服务器端代码,使用同一个客户端代码,按相同的套路发20个请求,结果如下:
时间->ip:port->回调线程id:当前连接数17:20:47->127.0.0.1:56454->15:1时间->发起一个读请求,耗时->回调线程id17:20:47->exe read req,use=3ms->1517:20:47->127.0.0.1:56455->15:217:20:47->exe read req,use=1ms->1517:20:47->127.0.0.1:56456->15:317:20:47->exe read req,use=0ms->1517:20:47->127.0.0.1:56457->16:417:20:47->127.0.0.1:56458->15:517:20:47->exe read req,use=1ms->1617:20:47->exe read req,use=1ms->1517:20:47->127.0.0.1:56460->15:617:20:47->127.0.0.1:56459->17:717:20:47->exe read req,use=0ms->1517:20:47->127.0.0.1:56462->15:817:20:47->127.0.0.1:56461->16:917:20:47->exe read req,use=1ms->1517:20:47->exe read req,use=0ms->1617:20:47->exe read req,use=0ms->1717:20:47->127.0.0.1:56465->16:1017:20:47->127.0.0.1:56463->18:1117:20:47->exe read req,use=0ms->1817:20:47->127.0.0.1:56466->15:1217:20:47->exe read req,use=1ms->1617:20:47->127.0.0.1:56464->17:1317:20:47->exe read req,use=1ms->1517:20:47->127.0.0.1:56467->18:1417:20:47->exe read req,use=2ms->1717:20:47->exe read req,use=1ms->1817:20:47->127.0.0.1:56468->15:1517:20:47->exe read req,use=1ms->1517:20:47->127.0.0.1:56469->16:1617:20:47->127.0.0.1:56470->18:1717:20:47->exe read req,use=1ms->1817:20:47->exe read req,use=1ms->1617:20:47->127.0.0.1:56472->15:1817:20:47->127.0.0.1:56473->19:1917:20:47->exe read req,use=2ms->1517:20:47->127.0.0.1:56471->17:2017:20:47->exe read req,use=1ms->1917:20:47->exe read req,use=1ms->17
时间->本次接受到的字节数,截至到目前接受到的字节总数,buffer中的字节总数->回调线程id:当前线程数17:20:52->count=65536,total=65536bs,buffer=65536bs->14:117:20:52->count=65536,total=65536bs,buffer=65536bs->14:117:20:52->count=65536,total=65536bs,buffer=65536bs->14:117:20:52->count=230188,total=295724bs,buffer=295724bs->12:117:20:52->count=752852,total=1048576bs,buffer=1048576bs->14:317:20:52->count=131072,total=196608bs,buffer=196608bs->17:2
。。。。。。。。。。。。。。。。。。。。。。
17:20:57->count=-1,total=1048576bs,buffer=1048576bs->15:117:20:57->count=-1,total=1048576bs,buffer=1048576bs->15:117:20:57->count=-1,total=1048576bs,buffer=1048576bs->15:117:20:57->count=-1,total=1048576bs,buffer=1048576bs->15:117:20:58->count=-1,total=1048576bs,buffer=1048576bs->15:117:20:58->count=-1,total=1048576bs,buffer=1048576bs->15:117:20:58->count=-1,total=1048576bs,buffer=1048576bs->15:1
系统接受到连接后,在工作线程中执行了回调。并且在回调中执行了read方法,耗时是0,因为只是注册了个接受数据的回调而已。
系统接受到数据后,把数据放入bytebuffer,在工作线程中执行了回调。并且回调中可以直接使用bytebuffer中的数据。
接受数据的回调被执行了多次,多次接受到的数据加起来正好等于客户端传来的数据。
因为系统是接受到数据后才触发的回调,所以服务器端最多时是3个线程在同时运行回调的,换句话说,线程池包含3个线程就可以了。
对比与结论:
处理同样的20个请求,一个需要用20个线程,一个需要用6个线程,一个需要3个线程,又节省了50%线程数。
注:不用特别较真这个比较结果,这里只是为了说明问题而已。哈哈。
三种处理方式的对比
第一种是阻塞io,阻塞点有两个,等待数据就绪的过程和读取数据的过程。
第二种是阻塞io,阻塞点有一个,读取数据的过程。
第三种是非阻塞io,没有阻塞点,当工作线程启动时,数据已经(被系统)准备好可以直接用了。
可见,这是一个逐步消除阻塞点的过程。
再次来谈谈各种io:
只有一个线程,接受一个连接,读取数据,处理业务,写回结果,再接受下一个连接,这是同步阻塞。这种用法几乎没有。
一个线程和一个线程池,线程接受到连接后,把它丢给线程池中的线程,再接受下一个连接,这是异步阻塞。对应示例一。
一个线程和一个线程池,线程运行selector,执行select操作,把就绪的连接拿出来丢给线程池中的线程,再执行下一次的select操作,就是多路复用,这是异步阻塞。对应示例二。
一个线程和一个线程池,线程注册一个accept回调,系统帮我们接受好连接后,才触发回调在线程池中执行,执行时再注册read回调,系统帮我们接受好数据后,才触发回调在线程池中执行,就是aio,这是异步非阻塞。对应示例三。
redis也是多路复用,但它只有一个线程在执行select操作,处理就绪的连接,整个是串行化的,所以天然不存在并发问题。只能把它归为同步阻塞了。
bio是阻塞io,可以是同步阻塞,也可以是异步阻塞。aio是异步io,只有异步非阻塞这一种。因此没有同步非阻塞这种说法,因为同步一定是阻塞的。
注:以上的说法是站在用户程序/线程的立场上来说的。
建议把代码下载下来,自己运行一下,体会体会:
https://github.com/coding-new-talking/java-code-demo.git
(end)
作者是工作超过10年的码农,现在任架构师。喜欢研究技术,崇尚简单快乐。追求以通俗易懂的语言解说技术,希望所有的读者都能看懂并记住。下面是公众号和知识星球的二维码,欢迎关注!