从BIO到Netty的演变
从bio到netty的演变
前言
计算机网络可以说是每个学计算机的都绕不过去的一道坎。计算机网络到底有多么重要,你走到大学图书馆的计算机部分,翻开那些什么《从零开始:黑客xxx》,《黑客攻防从入门到放弃》等书籍,基本第一部分都是在谈论网络。你去一些x客论坛,上面的教程帖也基本都是从网络部分开始的。
相信每一位科班出身的,都学习过《计算机网络》这样书籍, 上过这样的课程。当然教师资源如何,我这里就不谈论,那一定又会引出一顿苦水。但是学习完这样的课程,我们还是对计算机网络感到十分迷茫。这时候的我们可以背下网络七层模型,网络五层模型等,了解局域网,ip等基本地概念,但是计算机网络对于我们来说,还是一个十分空荡荡的名词。
为了更好地了解网络(绝对不是因为那时候很迷黑客的缘故),我决定参加高级网络工程师的考试。通过网络工程师的我对计算机网络有了更为深入的理解,开始将自己的计算机网络体系从概念上勾连起来。也许我可以看懂其中的一些路由规则,甚至看懂一些路由分发的论文。但是我依旧只是站在理论的角度,去理解计算机网络。
到了工作的时候,开始了解socket编程,开始参与各种实际生产环境的编程。这个时候的我开始对网络有了虽然简单,但是十分真实的接触。计算机网络不再只是停留在书本中的概念,而是我用以实现业务目标的切实手段。
随着工作中开始负责物联网项目的建设,我对网络中的各种协议开始有了自己的认识,甚至可以自己实现网络协议规范的代码落地。于此同时,由于对网络交互的性能要求,我不再只是会使用bio网络编程,我开始使用nio网络编程。
为了自己的知识储备,也是为了满足自己的好奇心,我查找了许多的资料,也报了许多课程,去学习网络编程。而我正好周六完成了软考的又一次考试,所以接下来有一定空闲时间的我,接下来会继续整理我的知识,并将它写成博客。
这篇博客的主要内容就是按照演变的顺序,写下bio->nio->reactor->netty这样的四个里程碑。这也是大佬们推荐的计算机网络编程的学习路线。不过这次只是给个整体的认识以及demo,更为深入的原理探究,会放在后面。
bio
介绍
几乎每个人都是bio开始的计算机网络编程,而其中大部分也永远地留在了这个计算机网络编程的模型。
优点
- 理解简单
- 实现简单
- 要求较低
缺点
- 性能低
- 瓶颈低
- 扩展难
代码示例(bio下tcp)
这里给出一些简单的demo,供大家认识。
bio_client
package tech.jarry.learning.netease; import java.io.ioexception; import java.io.outputstream; import java.net.inet4address; import java.net.inetsocketaddress; import java.net.socket; import java.nio.charset.charset; import java.util.scanner; /** * @description: * @author: jarry */ public class bioclient { private static final charset charset = charset.forname("utf-8"); public static void main(string[] args) throws ioexception { socket socket = new socket(); // socket socket = new socket("localhost", 8080); // 我还以为可以的。但是貌似上面的8080表示目标端口,而下面的8080表示源端口(发送端口) // socket.bind(new inetsocketaddress("localhost", 8080)); // 后来才去确定,.bind是用于绑定源信息,而.connect是用于绑定目标信息 socket.connect(new inetsocketaddress(inet4address.getlocalhost(), 8080)); outputstream outputstream = socket.getoutputstream(); scanner scanner = new scanner(system.in); system.out.println("please input: "); string msg = scanner.nextline(); outputstream.write(msg.getbytes(charset)); scanner.close(); outputstream.close(); socket.close(); } }
bio_serverv1
package tech.jarry.learning.netease; import java.io.bufferedreader; import java.io.ioexception; import java.io.inputstream; import java.io.inputstreamreader; import java.net.inetsocketaddress; import java.net.serversocket; import java.net.socket; /** * @description: bio模型中server端的简单实现 * @author: jarry */ public class bioserver { public static void main(string[] args) throws ioexception { serversocket serversocket = new serversocket(); serversocket.bind(new inetsocketaddress(8080)); system.out.println("server has started"); while (!serversocket.isclosed()) { socket requestclient = serversocket.accept(); system.out.println("server get a connection: " + requestclient.tostring()); inputstream requestinputstream = requestclient.getinputstream(); bufferedreader reader = new bufferedreader(new inputstreamreader(requestinputstream)); string msg; while ((msg = reader.readline()) != null) { if (msg.length() == 0) { break; } system.out.println(msg); } system.out.println("server has receive a message from: " + requestclient.tostring()); requestinputstream.close(); requestclient.close(); } serversocket.close(); } }
bio_serverv2
package tech.jarry.learning.netease; import java.io.bufferedreader; import java.io.ioexception; import java.io.inputstream; import java.io.inputstreamreader; import java.net.inetsocketaddress; import java.net.serversocket; import java.net.socket; import java.util.concurrent.executorservice; import java.util.concurrent.executors; /** * @description: 直接对原有代码bioserver进行暴力修改,将其阻塞部分,通过多线程实现异步处理 * @author: jarry */ public class bioserver1 { private static executorservice executorservice = executors.newcachedthreadpool(); public static void main(string[] args) throws ioexception { serversocket serversocket = new serversocket(); serversocket.bind(new inetsocketaddress(8080)); system.out.println("server has started"); while (!serversocket.isclosed()) { socket requestclient = serversocket.accept(); system.out.println("server get a connection: " + requestclient.tostring()); executorservice.submit(new runnable() { @override public void run() { inputstream requestinputstream = null; try { requestinputstream = requestclient.getinputstream(); } catch (ioexception e) { e.printstacktrace(); } bufferedreader reader = new bufferedreader(new inputstreamreader(requestinputstream)); string msg = null; while (true) { try { if (!((msg = reader.readline()) != null)) { break; } } catch (ioexception e) { e.printstacktrace(); } if (msg.length() == 0) { break; } system.out.println(msg); } system.out.println("server has receive a message from: " + requestclient.tostring()); try { requestinputstream.close(); requestclient.close(); } catch (ioexception e) { e.printstacktrace(); } } }); } serversocket.close(); } /** * 运行结果分析: * server has started * server get a connection: socket[addr=/10.0.75.1,port=64042,localport=8080] * server get a connection: socket[addr=/10.0.75.1,port=64052,localport=8080] * server get a connection: socket[addr=/10.0.75.1,port=64061,localport=8080] * 123 * server has receive a message from: socket[addr=/10.0.75.1,port=64042,localport=8080] * 456 * server has receive a message from: socket[addr=/10.0.75.1,port=64052,localport=8080] * 789 * server has receive a message from: socket[addr=/10.0.75.1,port=64061,localport=8080] */ }
bio_serverv3
package tech.jarry.learning.netease; import java.io.*; import java.net.inetsocketaddress; import java.net.serversocket; import java.net.socket; /** * @description: 直接对原有代码bioserver进行暴力修改,增加了其http格式的返回,确保浏览器可以正常访问 * @author: jarry */ public class bioserver2 { public static void main(string[] args) throws ioexception { serversocket serversocket = new serversocket(); serversocket.bind(new inetsocketaddress(8080)); system.out.println("server has started"); while (!serversocket.isclosed()) { socket requestclient = serversocket.accept(); system.out.println("server get a connection: " + requestclient.tostring()); inputstream requestinputstream = requestclient.getinputstream(); bufferedreader reader = new bufferedreader(new inputstreamreader(requestinputstream)); string msg; while ((msg = reader.readline()) != null) { if (msg.length() == 0) { break; } system.out.println(msg); } system.out.println("server has receive a message from: " + requestclient.tostring()); // 返回数据,并确保可以被http协议理解 outputstream outputstream = requestclient.getoutputstream(); outputstream.write("http/1.1 200 ok\r\r".getbytes("utf-8")); outputstream.write("content-length: 11\r\n\r\n".getbytes("utf-8")); outputstream.write("hello world".getbytes("utf-8")); outputstream.flush(); requestinputstream.close(); outputstream.close(); requestclient.close(); } serversocket.close(); } /** * 运行结果分析: */ // server has started // server get a connection: socket[addr=/0:0:0:0:0:0:0:1,port=63008,localport=8080] // get / http/1.1 // host: localhost:8080 // connection: keep-alive // cache-control: max-age=0 // upgrade-insecure-requests: 1 // user-agent: mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/77.0.3865.90 safari/537.36 // sec-fetch-mode: navigate // sec-fetch-user: ?1 // accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3 // sec-fetch-site: none // accept-encoding: gzip, deflate, br // accept-language: en-us,en;q=0.9,zh-cn;q=0.8,zh;q=0.7 // cookie: webstorm-c7a2b5a2=b5e53f87-54cc-41d5-a21f-c7be3056dfe8; centcontrol_login_token=09e8a6b6888cb0b7a9f89ab3db5fafe4 // server has receive a message from: socket[addr=/0:0:0:0:0:0:0:1,port=63008,localport=8080] // server get a connection: socket[addr=/0:0:0:0:0:0:0:1,port=63009,localport=8080] // get /favicon.ico http/1.1 // host: localhost:8080 // connection: keep-alive // pragma: no-cache // cache-control: no-cache // sec-fetch-mode: no-cors // user-agent: mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/77.0.3865.90 safari/537.36 // accept: image/webp,image/apng,image/*,*/*;q=0.8 // sec-fetch-site: same-origin // referer: http://localhost:8080/ // accept-encoding: gzip, deflate, br // accept-language: en-us,en;q=0.9,zh-cn;q=0.8,zh;q=0.7 // cookie: webstorm-c7a2b5a2=b5e53f87-54cc-41d5-a21f-c7be3056dfe8; centcontrol_login_token=09e8a6b6888cb0b7a9f89ab3db5fafe4 // server has receive a message from: socket[addr=/0:0:0:0:0:0:0:1,port=63009,localport=8080] }
上面的代码是一套的,可以进行server与client的通信,功能较为简单。
所以这里再給一个,可以进行通信的版本。简单的业务场景可以直接修改,应用。
bio2_client
package self; import java.io.*; import java.net.*; /** * @description: * @author: jarry */ public class client { public static void main(string[] args) throws ioexception { socket socket = new socket(); socket.setsotimeout(2000); socket.connect(new inetsocketaddress(inet4address.getlocalhost(),2000),2000); system.out.println("client startup"); dealmsg(socket); socket.close(); } private static void dealmsg(socket clientsocket) throws ioexception { // 1.获取键盘输入流 inputstream systeminputstream = system.in; // 2.将systeminputstream转化为具有缓存功能的字符输入流bufferedreader bufferedreader systembufferedreader = new bufferedreader(new inputstreamreader(systeminputstream)); // 3.获取socket输入流 inputstream socketinputstream = clientsocket.getinputstream(); // 4.将socketinputstream转换为具有缓存能力的字符输入流 bufferedreader socketbufferedreader = new bufferedreader(new inputstreamreader(socketinputstream)); // 5.获取socket输出流 outputstream socketoutputstream = clientsocket.getoutputstream(); // 6.将socketoutputstream转换为打印流(用于发送string) printstream socketprintstream = new printstream(socketoutputstream); // 用于确立连接状态的标识符 boolean flag = true; // 7.利用循环,client与server进行交互 do { // 从键盘等系统输入流获取输入字符串 string str = systembufferedreader.readline(); // 将str写入到socketclient的打印流(本质是输出流)。socketclient的输出流是连接server的,用于向server发送数据的 socketprintstream.println(str); // 从server获得回写(server的回写,一定会发送到socketclient的输入流中(输入的“入”是指入socketclient) string echo = socketbufferedreader.readline(); // 建立一个用于关闭的方式 if ("bye".equalsignorecase(echo)){ flag = false; }else{ // 在控制台打印server的echo system.out.println("server echo:"+echo); } }while (flag); // 8.退出交互,需要关闭与server连接的两个资源(输入与输出) 考虑一下lombok的@cleanup socketbufferedreader.close(); socketprintstream.close(); } }
bio2_server
package self; import java.io.*; import java.net.serversocket; import java.net.socket; /** * @description: * @author: jarry */ public class server { public static void main(string[] args) throws ioexception { // 建立server的socket,服务端不需要设置ip,以及port // ip采用本地ip serversocket serversocket = new serversocket(2000); system.out.println("server startup"); // 通过循环,对client的请求进行监听 while (true){ // 获得client的请求 socket clientrequest = serversocket.accept(); // 异步处理client的请求 clienthandler clienthandler = new clienthandler(clientrequest); clienthandler.start(); } } private static class clienthandler extends thread { socket socketclient = null; boolean flag = true; clienthandler(socket socketclient){ this.socketclient = socketclient; } @override public void run() { super.run(); // 构建系统输入流 inputstream systeminputstream = system.in; // 将系统输入流转换为字符输入流 bufferedreader systembufferedreader = new bufferedreader(new inputstreamreader(systeminputstream)); try { // 构建socketclient的输入流(即客户端中,写入client输出流的数据) inputstream clientinputstream = socketclient.getinputstream(); // 将client的输入流转为具有存储能力的bufferedreader bufferedreader clientbufferedreader = new bufferedreader(new inputstreamreader(clientinputstream)); // 构建socketclient的输出流(用于发送数据,即客户端中,从client输入流读取的数据) outputstream clientoutputstream = socketclient.getoutputstream(); // 将client的输出流转换为打印流,便于输出数据 printstream clientprintstream = new printstream(clientoutputstream); // 通过循环,与客户端进行交互 do { // 读取从客户端发送来的数据,即读取socketclient的输入流转化的bufferedreader string str = clientbufferedreader.readline(); if ("bye".equalsignorecase(str)){ flag = false; clientprintstream.println("connect interrupt"); }else{ system.out.println(str); // 发送回写数据,即将回写数据写入socketclient的输出流(客户端的输入流会获取相关数据) clientprintstream.println(str.length()); } // 从系统输入中获取想要发送的数据 string servstr = systembufferedreader.readline(); // 发送到客户端 clientprintstream.println(servstr); }while (flag); // 同样的,关闭连接资源 clientbufferedreader.close(); clientprintstream.close(); } catch (ioexception e) { e.printstacktrace(); }finally { // 无论发生什么,最后都要关闭socket连接 try { socketclient.close(); } catch (ioexception e) { e.printstacktrace(); } } } } }
为了使得代码结构更有优雅,并且为了更好地处理字符编码问题(demo中保留了各种数据类型的处理方式)。我们将上述版本更新一下。
bio2_clientv2
package example; import java.io.ioexception; import java.io.inputstream; import java.io.outputstream; import java.net.inet4address; import java.net.inetsocketaddress; import java.net.socket; import java.net.socketexception; import java.nio.bytebuffer; public class client { // 连接到远程服务器的远程端口 private static final int port = 20000; // 本地端口 private static final int local_port = 20001; public static void main(string[] args) throws ioexception { // 创建socket的操作,可以选择不同的创建方式 socket socket = createsocket(); // socket初始化操作 initsocket(socket); // 链接到本地20000端口,超时时间3秒,超过则抛出超时异常 socket.connect(new inetsocketaddress(inet4address.getlocalhost(), port), 3000); system.out.println("已发起服务器连接,并进入后续流程~"); system.out.println("客户端信息:" + socket.getlocaladdress() + " p:" + socket.getlocalport()); system.out.println("服务器信息:" + socket.getinetaddress() + " p:" + socket.getport()); try { // 发送接收数据 todo(socket); } catch (exception e) { system.out.println("异常关闭"); } // 释放资源 socket.close(); system.out.println("客户端已退出~"); } /** * 创建socket * @return * @throws ioexception */ private static socket createsocket() throws ioexception { /* // 无代理模式,等效于空构造函数 socket socket = new socket(proxy.no_proxy); // 新建一份具有http代理的套接字,传输数据将通过www.baidu.com:8080端口转发 proxy proxy = new proxy(proxy.type.http, new inetsocketaddress(inet4address.getbyname("www.baidu.com"), 8800)); socket = new socket(proxy); // 新建一个套接字,并且直接链接到本地20000的服务器上 socket = new socket("localhost", port); // 新建一个套接字,并且直接链接到本地20000的服务器上 socket = new socket(inet4address.getlocalhost(), port); // 新建一个套接字,并且直接链接到本地20000的服务器上,并且绑定到本地20001端口上 socket = new socket("localhost", port, inet4address.getlocalhost(), local_port); socket = new socket(inet4address.getlocalhost(), port, inet4address.getlocalhost(), local_port); */ // 推荐无参构造,因为其它(上面)的构造方法都是包含构造,设参,以及connect操作。而socket一旦connect后,设置参数的操作就无效了。不便于灵活使用 socket socket = new socket(); // 绑定到本地20001端口 socket.bind(new inetsocketaddress(inet4address.getlocalhost(), local_port)); return socket; } private static void initsocket(socket socket) throws socketexception { // 设置读取超时时间为2秒 socket.setsotimeout(2000); // 是否复用未完全关闭的socket地址,对于指定bind操作后的套接字有效(正常socket关闭后,对应端口在两分钟内将不再复用。而这个设置将可以直接使用对应空置端口) socket.setreuseaddress(true); // 是否开启nagle算法(开启后,两点:第一,会对收到的每次数据进行ack,另一端只有在接收到对应ack,才会继续发送数据。第二,如果有数据堆积,会一次将所有堆积数据发出去(毕竟这种模式有数据堆积是正常的) // 开启后,更为严谨,严格,安全(默认开启) socket.settcpnodelay(true); // 是否需要在长时无数据响应时发送确认数据(类似心跳包),时间大约为2小时 socket.setkeepalive(true); // 对于close关闭操作行为进行怎样的处理;默认为false,0 // false、0:默认情况,关闭时立即返回,底层系统接管输出流,将缓冲区内的数据发送完成 // true、0:关闭时立即返回,缓冲区数据抛弃,直接发送rst结束命令到对方,并无需经过2msl等待 // true、200:关闭时最长阻塞200毫秒,随后按第二情况处理 socket.setsolinger(true, 20); // 是否让紧急数据内敛,默认false;紧急数据通过 socket.sendurgentdata(1);发送 // 只有设置为true,才会暴露到上层(逻辑层) socket.setoobinline(true); // 设置接收发送缓冲器大小 socket.setreceivebuffersize(64 * 1024 * 1024); socket.setsendbuffersize(64 * 1024 * 1024); // 设置性能参数:短链接,延迟,带宽的相对重要性(权重) socket.setperformancepreferences(1, 1, 0); } private static void todo(socket client) throws ioexception { // 得到socket输出流 outputstream outputstream = client.getoutputstream(); // 得到socket输入流 inputstream inputstream = client.getinputstream(); byte[] buffer = new byte[256]; bytebuffer bytebuffer = bytebuffer.wrap(buffer); // 等同于上两行代码(bytebuffer是nio提供的一个工具,allocate就是分配内存地址,bytebuffer处理的是byte) // bytebuffer bytebuffer = bytebuffer.allocate(256); // 尝试各种数据传输,发出 // byte bytebuffer.put((byte) 126); // char char c = 'a'; bytebuffer.putchar(c); // int int i = 2323123; bytebuffer.putint(i); // bool boolean b = true; bytebuffer.put(b ? (byte) 1 : (byte) 0); // long long l = 298789739; bytebuffer.putlong(l); // float float f = 12.345f; bytebuffer.putfloat(f); // double double d = 13.31241248782973; bytebuffer.putdouble(d); // string string str = "hello你好!"; bytebuffer.put(str.getbytes()); // 发送到服务器(长度等于index+1) outputstream.write(buffer, 0, bytebuffer.position() + 1); // 接收服务器返回 int read = inputstream.read(buffer); system.out.println("收到数量:" + read); // 资源释放 outputstream.close(); inputstream.close(); } /** * 扩展-msl * msl是maximum segment lifetime的英文缩写,可译为“最长报文段寿命”, * 它是任何报文在网络上存在的最长的最长时间,超过这个时间报文将被丢弃。 * 我们都知道ip头部中有个ttl字段,ttl是time to live的缩写,可译为“生存时间”, * 这个生存时间是由源主机设置设置初始值但不是但不是存在的具体时间,而是一个ip数据报可以经过的最大路由数,每经过一个路由器,它的值就减1, * 当此值为0则数据报被丢弃,同时发送icmp报文通知源主机。 * rfc793中规定msl为2分钟,但这完全是从工程上来考虑,对于现在的网络,msl=2分钟可能太长了一些。 * 因此tcp允许不同的实现可根据具体情况使用更小的msl值。ttl与msl是有关系的但不是简单的相等关系,msl要大于ttl。 */ }
bio2_serverv2
package example; import java.io.ioexception; import java.io.inputstream; import java.io.outputstream; import java.net.inet4address; import java.net.inetsocketaddress; import java.net.serversocket; import java.net.socket; import java.nio.bytebuffer; public class server { private static final int port = 20000; public static void main(string[] args) throws ioexception { serversocket server = createserversocket(); initserversocket(server); // 绑定到本地端口上 backlog标识等待队列中等待数量(超出,则在对应的客户端触发异常) server.bind(new inetsocketaddress(inet4address.getlocalhost(), port), 50); system.out.println("服务器准备就绪~"); system.out.println("服务器信息:" + server.getinetaddress() + " p:" + server.getlocalport()); // 等待客户端连接 for (; ; ) { // 得到客户端 socket client = server.accept(); // 客户端构建异步线程 clienthandler clienthandler = new clienthandler(client); // 启动线程 clienthandler.start(); } } private static serversocket createserversocket() throws ioexception { // 创建基础的serversocket serversocket serversocket = new serversocket(); // 绑定到本地端口20000上,并且设置当前可允许等待链接的队列为50个 //server.bind(new inetsocketaddress(inet4address.getlocalhost(), port), 50); //serversocket = new serversocket(port); // 等效于上面的方案,队列设置为50个 //serversocket = new serversocket(port, 50); // 与上面等同 // serversocket = new serversocket(port, 50, inet4address.getlocalhost()); return serversocket; } private static void initserversocket(serversocket serversocket) throws ioexception { // 是否复用未完全关闭的地址端口 serversocket.setreuseaddress(true); // 等效socket#setreceivebuffersize(针对的是accept()接收到的clientsocket。毕竟在accept时就已经接收到了一定的数据了) serversocket.setreceivebuffersize(64 * 1024 * 1024); // 设置serversocket#accept超时时间 // serversocket.setsotimeout(2000); // 设置性能参数:短链接,延迟,带宽的相对重要性(针对的是accept()接收到的clientsocket) serversocket.setperformancepreferences(1, 1, 1); } /** * 客户端消息处理 */ private static class clienthandler extends thread { private socket socket; clienthandler(socket socket) { this.socket = socket; } @override public void run() { super.run(); system.out.println("新客户端连接:" + socket.getinetaddress() + " p:" + socket.getport()); try { // 得到套接字流 outputstream outputstream = socket.getoutputstream(); inputstream inputstream = socket.getinputstream(); byte[] buffer = new byte[256]; int readcount = inputstream.read(buffer); bytebuffer bytebuffer = bytebuffer.wrap(buffer, 0, readcount); // 按客户端发送的顺序读取 // byte byte be = bytebuffer.get(); // char char c = bytebuffer.getchar(); // int int i = bytebuffer.getint(); // bool boolean b = bytebuffer.get() == 1; // long long l = bytebuffer.getlong(); // float float f = bytebuffer.getfloat(); // double double d = bytebuffer.getdouble(); // string int pos = bytebuffer.position(); string str = new string(buffer, pos, readcount - pos - 1); system.out.println("收到数量:" + readcount + " 数据:" + be + "\n" + c + "\n" + i + "\n" + b + "\n" + l + "\n" + f + "\n" + d + "\n" + str + "\n"); outputstream.write(buffer, 0, readcount); outputstream.close(); inputstream.close(); } catch (exception e) { system.out.println("连接异常断开"); } finally { // 连接关闭 try { socket.close(); } catch (ioexception e) { e.printstacktrace(); } } system.out.println("客户端已退出:" + socket.getinetaddress() + " p:" + socket.getport()); } } }
bio2_tool
这里的tool,表明了两点:如何实现int与byte之间的转换,可以自定义实现数据的转换
package example; /** * 过渡一下,简述int与byte之间的转换。 * 进而明确各种数据类型与byte之间的转化。 * 最终引申出nio包下的bytebuffer工具,实现不同数据类型与byte类型的相互转换 */ public class tools { public static int bytearraytoint(byte[] b) { return b[3] & 0xff | (b[2] & 0xff) << 8 | (b[1] & 0xff) << 16 | (b[0] & 0xff) << 24; } public static byte[] inttobytearray(int a) { return new byte[]{ (byte) ((a >> 24) & 0xff), (byte) ((a >> 16) & 0xff), (byte) ((a >> 8) & 0xff), (byte) (a & 0xff) }; } }
代码示例扩展(bio下udp)
由于实际工作中udp使用得比较少,所以这里只给出了bio中udp的使用。不过也基本满足了udp的使用入门了,可以实现局域网搜索(起码对我目前的工作来说是够用了)。至于udp用于音视频数据传输,得读者自己寻找,或者等我了解之后,更新。
bio_udp_searcher
package self; import java.io.ioexception; import java.net.*; /** * @description: * @author: jarry */ public class udpsearcher { public static void main(string[] args) throws ioexception { system.out.println("udpsearcher started."); // 构建udp的socket(由于是searcher,即数据的率先发送者,所以可以不用指定port,用于监听) datagramsocket datagramsocket = new datagramsocket(); // 构建请求消息的实体(包含目标ip及port) string requestmsg = "just a joke."; byte[] requestbytes = requestmsg.getbytes(); datagrampacket requestpacket = new datagrampacket(requestbytes, requestbytes.length); requestpacket.setaddress(inet4address.getlocalhost()); requestpacket.setport(20000); // 发送请求数据 system.out.println("udpsearcher has send msg."); datagramsocket.send(requestpacket); // 接收回送数据 byte[] buf = new byte[512]; datagrampacket receivepacket = new datagrampacket(buf,buf.length); datagramsocket.receive(receivepacket); string sourceip = receivepacket.getaddress().gethostaddress(); int sourceport = receivepacket.getport(); int datalength = receivepacket.getlength(); string receivedata = new string(receivepacket.getdata(),0,receivepacket.getdata().length); // 显示接收到的数据 system.out.println("udpsearcher has received data with source:"+sourceip+":"+sourceport+" with length "+datalength+". data:"+receivedata); // 由于是demo,所以不用循环,就此结束 system.out.println("udpsearcher finished."); datagramsocket.close(); } }
bio_udp_provider
package self; import java.io.ioexception; import java.net.datagrampacket; import java.net.datagramsocket; import java.net.socketexception; /** * @description: * @author: jarry */ public class udpprovider { public static void main(string[] args) throws ioexception { system.out.println("udpprovider started."); // 新建datagramsocekt,并设定在本机20000端口监听,并接收消息 datagramsocket datagramsocket = new datagramsocket(20000); // 新建datagrampacket实体 byte[] buf = new byte[512]; datagrampacket datagrampacket = new datagrampacket(buf,buf.length); // 接收数据 datagramsocket.receive(datagrampacket); // 处理接受到的数据 string sourceip = datagrampacket.getaddress().gethostaddress(); int sourceport = datagrampacket.getport(); string data = new string(datagrampacket.getdata(),0,datagrampacket.getlength()); // 显示接收到的数据 system.out.println("udpprovider has received data with source:"+sourceip+":"+sourceport+" with length "+data.length()+". data:"+data); // 准备发送回送数据 string responsedata = "udpprovider has received data with length:"+data.length(); byte[] responsebytes = responsedata.getbytes(); // 构建回送数据实体(别玩了,设置目标ip与port) datagrampacket responsepacket = new datagrampacket(responsebytes, responsebytes.length ,datagrampacket.getaddress(),datagrampacket.getport()); // 发送回送数据 system.out.println("udpprovider has sended data."); datagramsocket.send(responsepacket); // 由于是demo,所以不用循环,就此结束 system.out.println("udpprovider finished."); datagramsocket.close(); } }
为了网络监听的clear,以及权限问题,需要对上述代码进行一次升级。
bio_udp2_messagecreator
package self.v2; /** * @description: 自定义通信数据格式(这可能是最简单的应用层协议了) * @author: jarry */ public class messagecreator { private static final string sn_header = "收到暗号,我是(sn):"; private static final string port_header = "发送暗号,请回电端口(port):"; public static string buildwithport(int port){ return port_header + port; } public static int parseport(string data){ if (data.startswith(port_header)){ return integer.parseint(data.substring(port_header.length())); } return -1; } public static string buildwithsn(string sn){ return sn_header + sn; } public static string parsesn(string data){ if (data.startswith(sn_header)){ return data.substring(sn_header.length()); } return null; } }
bio_udp2_searcher
package self.v2; import java.io.ioexception; import java.net.*; import java.util.arraylist; import java.util.list; import java.util.concurrent.countdownlatch; /** * @description: * @author: jarry */ public class udpsearcher { // 监听端口号 private static final int listen_port = 30000; public static void main(string[] args) throws ioexception, interruptedexception { system.out.println("udpsearcher started"); listener listener = listen(); sendbroadcast(); // 读取任意键盘信息后退出 system.in.read(); list<device> devices = listener.getdevicesandclose(); for (device device : devices) { system.out.println("device:"+device.tostring()); } // 完成 system.out.println("udpsearcher finished"); } private static listener listen() throws interruptedexception { system.out.println("udpsearcher start listen."); countdownlatch countdownlatch = new countdownlatch(1); listener listener = new listener(listen_port, countdownlatch); listener.start(); countdownlatch.await(); return listener; } /** * 用于发送广播消息 * @throws ioexception */ private static void sendbroadcast() throws ioexception { system.out.println("udpsearcher sendbroadcast started."); // 作为一个搜索者(发送请求),无需指定一个端口,由系统自动分配 datagramsocket datagramsocket = new datagramsocket(); // 构建一份请求数据 string requestdata = messagecreator.buildwithport(listen_port); byte[] requestdatabytes = requestdata.getbytes(); // 构建发送数据实体 datagrampacket requestpacket = new datagrampacket(requestdatabytes, requestdatabytes.length); // 设置目标地址(采用广播地址) requestpacket.setaddress(inet4address.getbyname("255.255.255.255")); requestpacket.setport(20000); // 发送构建好的消息 datagramsocket.send(requestpacket); system.out.println("start send data."); // 发送结束 system.out.println("udpsearcher sendbroadcast finished."); datagramsocket.close(); } private static class device { final int port; final string ip; final string sn; public device(int port, string ip, string sn) { this.port = port; this.ip = ip; this.sn = sn; } @override public string tostring() { return "device{" + "port=" + port + ", ip='" + ip + '\'' + ", sn='" + sn + '\'' + '}'; } } private static class listener extends thread{ private final int listenport; private final countdownlatch countdownlatch; private final list<device> devices = new arraylist<device>(); private boolean done = false; private datagramsocket ds = null; public listener(int listenport, countdownlatch countdownlatch){ super(); this.listenport = listenport; this.countdownlatch = countdownlatch; } @override public void run() { super.run(); // 通知已启动 countdownlatch.countdown(); // 开始实际数据监听部分 try { // 监听回送端口 ds = new datagramsocket(listenport); while (!done){ // 接收消息的实体 final byte[] buf = new byte[512]; datagrampacket receivepack = new datagrampacket(buf, buf.length); // 开始接收数据 ds.receive(receivepack); // 打印接收到的信息 string ip = receivepack.getaddress().gethostaddress(); int port = receivepack.getport(); int datalength = receivepack.getlength(); string data = new string(receivepack.getdata(),0,datalength); system.out.println("udpsearcher receive form ip:" + ip + "\tport:" + port + "\tdata:" + data); string sn = messagecreator.parsesn(data); if (sn != null){ device device = new device(port, ip ,sn); devices.add(device); } } }catch (exception e){ }finally { close(); } system.out.println("udpsearcher listner finished"); } private void close(){ if (ds != null){ ds.close(); ds = null; } } list<device> getdevicesandclose(){ done = true; close(); return devices; } } }
bio_udp_provider
package self.v2; /** * @description: * @author: jarry */ import java.io.ioexception; import java.net.datagrampacket; import java.net.datagramsocket; import java.util.uuid; /** * udp 提供者, 用于提供udp服务 */ public class udpprovider { public static void main(string[] args) throws ioexception { string sn = uuid.randomuuid().tostring(); provider provider = new provider(sn); provider.start(); // 读取任意字符,退出 system.in.read(); provider.exit(); } private static class provider extends thread { private final string sn; private boolean done = false; private datagramsocket datagramsocket = null; public provider(string sn){ super(); this.sn = sn; } @override public void run() { super.run(); system.out.println("udpprovider started."); try { // 作为一个接收者(接受请求),需要指定一个端口用来接收消息 datagramsocket = new datagramsocket(20000); // 通过一个循环,不断监听,接收数据 while (true) { // 接收消息的实体 final byte[] buf = new byte[512]; datagrampacket receivepack = new datagrampacket(buf, buf.length); // 开始接收数据 datagramsocket.receive(receivepack); // 打印接收到的信息 string ip = receivepack.getaddress().gethostaddress(); int port = receivepack.getport(); int datalength = receivepack.getlength(); string data = new string(receivepack.getdata(), 0, datalength); system.out.println("udpprovider receive form ip:" + ip + "\tport:" + port + "\tdata:" + data); // 获得目标端口 int responseport = messagecreator.parseport(data); if (responseport != -1){ // 构建一份回送数据 string responsedata = messagecreator.buildwithsn(sn); byte[] reponsedatabytes = responsedata.getbytes(); // 直接根据发送者,构建回送数据实体 datagrampacket responsepacket = new datagrampacket(reponsedatabytes, reponsedatabytes.length, receivepack.getaddress(), // 采用指定的端口,而不是解析获得的来源端口(来源端口不一定就是监听端口,这是有些时候为了简化而已) responseport); // 发送构建好的回送消息 datagramsocket.send(responsepacket); system.out.println("start send data."); } } }catch (exception ignore){ }finally { close(); } // 发送结束 system.out.println("udpprovider finished."); } /** * 对外提供结束方法 */ void exit(){ done = true; close(); } /** * 本地关闭datagramsocket的方法 */ private void close(){ if (datagramsocket != null){ datagramsocket.close(); datagramsocket = null; } } } }
nio
介绍
在了解bio之后,我们可以很明显地发现其中的问题,那就是bio模型中,每一个client的请求发送到server端后,server端通过accept接收请求后,必须创建一个clientsocket来进行通信。并且这个通信是阻塞的,一方面,新的clientsocket无法进入(单线程嘛),另一方面,clientsocket是通过流的方式进行通信,而流的通信方式是阻塞的(即没有获得数据是,必须在那里等待)。这两个问题,前者可以如demo中那样,创建一个线程池来解决,而后者是没法解决的。而这样一个多线程+bio也是很多开发人员的选择,因为这样的实现也十分简单,并且可以满足一定的需求了。
但是,回过头想一想,上述的解决方案,存在一个问题。那就是系统并发量受限于线程池的线程数。如果请求只有几百的并发,那么上述的解决方案没有任何问题。但是任何一个稍有规模的业务场景都不会只有几百的并发。那么如果不对技术进行升级,只有两个办法。一个升级硬件配置,尤其是内存(因为线程是非常消耗内存的),另一方面将连接按照一定的逻辑维度进行拆分(比如按照业务场景)。
我曾经和我的boss谈话时,提到这么一句话:技术的非常熟练,不如技术升级带来的价值高(因为我们公司有一个去年毕业的开发,非常抗拒学习新技术。虽然基础的crud挺熟练的,但是效率真的太低了。一个简单的条件查询就说要十五个工作日。如果他会使用函数式编程,配合mp,也许就一个小时吧。有空可以出个效率编程的专题,感觉很有价值)。
所以,在bio越加疲软的时候(当然有的业务场景bio性能貌似并不比nio低多少,但是投入差别有些大),终于nio面世。
nio借助事件监听机制,提供非阻塞式的高伸缩性网络。当然,有兴趣的可以深挖,相关概念还是很多的,比如它与linux的io模型的关系,这些都可以很好地帮助大家扩展视野(毕竟视野决定了高度)。
nio有三大支柱,分别是:bytebuffer,channel,selector(详见:java nio:buffer、channel 和 selector)。
bytebuffer:就是一个数据实体,其中提供了许多数据转换的方法。如在bio的demo中就用到了
channel:参考网络通信的channel,所有的 nio 操作始于通道,通道是数据来源或数据写入的目的地。这降低了bio入门时对流认识的痛苦(一会输入流,一会输出流,流还需要进行转换),并且也有利于提高开发效率。
selector:多路复用器(虽然有人称之为选择器,但是更为精准的说法时多路复用器),实现了一个线程管理多个channel,也是nio事件驱动机制的基础。
当然上述的这些,也不是必须的,我可以只有channel,bytebuffer的数据转换可以自己实现,而selector,可以通过多线程的方式去达到类似的功能效果(性能当然时没法比的了)。但是只有三者齐聚,才能最大发挥nio的性能。
优点
- 性能好
- 性价比高
- 不需要理解流
- 性能瓶颈更高
缺点
- 需要理解nio的模型(相对于bio,nio的模型更为抽象)
- 需要理解nio的事件驱动机制
- nio的三大支柱的理解需要一定的时间
代码示例
这里给出一些简单的demo,供大家认识。
nio_client
package tech.jarry.learning.netease; import java.io.ioexception; import java.net.inet4address; import java.net.inetsocketaddress; import java.nio.bytebuffer; import java.nio.channels.socketchannel; import java.util.scanner; /** * @description: nio模型下的tcp客户端实现 * @author: jarry */ public class nioclient { public static void main(string[] args) throws ioexception { // 获得一个socektchannel socketchannel socketchannel = socketchannel.open(); // 设置socketchannel为非阻塞模式 socketchannel.configureblocking(false); // 设置socketchannel的连接配置 socketchannel.connect(new inetsocketaddress(inet4address.getlocalhost(), 8080)); // 通过循环,不断连接。跳出循环,表示连接建立成功 while (!socketchannel.finishconnect()){ // 如果没有成功建立连接,就一直阻塞当前线程(.yield()会令当前线程“谦让”出cpu资源) thread.yield(); } // 发送外部输入的数据 scanner scanner = new scanner(system.in); system.out.println("please input:"); string msg = scanner.nextline(); // bytebuffer.wrap()会直接调用heapbytebuffer。故一方面其会自己完成内存分配。另一方面,其分配的内存是非直接内存(非heap堆) bytebuffer bytebuffer = bytebuffer.wrap(msg.getbytes()); // bytebuffer.hasremaining()用于判断对应bytebuffer是否还有剩余数据(实现:return position < limit;) while (bytebuffer.hasremaining()){ socketchannel.write(bytebuffer); } // 读取响应 system.out.println("receive echoresponse from server"); // 设置缓冲区大小为1024 bytebuffer requestbuffer = bytebuffer.allocate(1024); // 判断条件:是否开启,是否读取到数据 //todo 我认为这里的实现十分粗糙,是不可以置于生产环境的,具体还需要后面再看看(即使是过渡demo,也可以思考一下嘛) while (socketchannel.isopen() && socketchannel.read(requestbuffer) != -1){ // 长连接情况下,需要手动判断数据有没有读取结束 (此处做一个简单的判断: 超过0字节就认为请求结束了) if (requestbuffer.position() > 0) { break; } } requestbuffer.flip(); // byte[] content = new byte[requestbuffer.limit()]; // // .get()方法只会返回byte类型(猜测是当前标记位的数据) // requestbuffer.get(content); // system.out.println(new string(content)); // bytebuffer提供了大量的基本类型转换的方法,可以直接拿来使用 system.out.println(new string(requestbuffer.array())); scanner.close(); socketchannel.close(); } }
nio_serverv1
package tech.jarry.learning.netease; import java.io.ioexception; import java.net.inetsocketaddress; import java.nio.bytebuffer; import java.nio.channels.serversocketchannel; import java.nio.channels.socketchannel; /** * @description: 直接根据bioserver进行转变的。所以整体的逻辑与bioserver类似 * @author: jarry */ public class nioserver { public static void main(string[] args) throws ioexception { // 创建网络服务端 serversocketchannel serversocketchannel = serversocketchannel.open(); serversocketchannel.configureblocking(false); //todo .socket().bind()与.bind()的区别不清楚 serversocketchannel.socket().bind(new inetsocketaddress(8080)); system.out.println("server has started"); // 通过循环,不断获取监听不同客户端发来的连接请求 while (true){ // 由于nio是非阻塞,故返回值是完全可能是null的 socketchannel socketchannel = serversocketchannel.accept(); if (socketchannel != null){ system.out.println("server has connect a new client: "+socketchannel.getremoteaddress().tostring()); socketchannel.configureblocking(false); bytebuffer requestbuffer = bytebuffer.allocate(1024); while (socketchannel.isopen() && socketchannel.read(requestbuffer) != -1){ if (requestbuffer.position() > 0){ break; } } if (requestbuffer.position() == 0){ // 如果没有数据,就不再进行后续处理,而是进入下一个循环 continue; } requestbuffer.flip(); system.out.println("server receive a message: "+new string(requestbuffer.array())); system.out.println("server receive a message from: "+socketchannel.getremoteaddress()); // 响应结果 200 string response = "http/1.1 200 ok\r\n" + "content-length: 12\r\n\r\n" + "hello world!"; bytebuffer responsebuffer = bytebuffer.wrap(response.getbytes()); while (responsebuffer.hasremaining()){ socketchannel.write(responsebuffer); } } } } }
nio_serverv2
package tech.jarry.learning.netease; import java.io.ioexception; import java.net.inetsocketaddress; import java.nio.bytebuffer; import java.nio.channels.serversocketchannel; import java.nio.channels.socketchannel; import java.util.arraylist; import java.util.iterator; import java.util.list; /** * @description: 与bioserver同样的,nioserver也无法同时连接多个客户端 * v1版本这里,依旧如bioserver1那样,通过轮询实现多个客户端处理(不过bio由于是阻塞的,所以采用多线程。而nio是非阻塞的,所以采用一个全局列表来进行处理) * @author: jarry */ public class nioserverv1 { private static list<socketchannel> socketchannellist = new arraylist<>(); public static void main(string[] args) throws ioexception { // 创建网络服务端 serversocketchannel serversocketchannel = serversocketchannel.open(); serversocketchannel.configureblocking(false); //todo .socket().bind()与.bind()的区别不清楚 serversocketchannel.socket().bind(new inetsocketaddress(8080)); system.out.println("server has started"); // 通过循环,不断获取监听不同客户端发来的连接请求 while (true) { // 由于nio是非阻塞,故返回值是完全可能是null的 socketchannel socketchannel = serversocketchannel.accept(); if (socketchannel != null) { // 如果有新的连接接入,就打印日志,并将对应的socektchannel置入全局队列中 system.out.println("server has connect a new client: " + socketchannel.getremoteaddress().tostring()); socketchannel.configureblocking(false); socketchannellist.add(socketchannel); } else { // 如果没有新的连接接入,就对现有连接的数据进行处理,如果处理完了就从列表中删除对应socketchannel iterator<socketchannel> socketchanneliterator = socketchannellist.iterator(); while (socketchanneliterator.hasnext()){ socketchannel clientsocketchannel = socketchanneliterator.next(); bytebuffer requestbuffer = bytebuffer.allocate(1024); // 新增:如果当前channel的数据长度为0,表示这个通道没有数据需要处理,那就过会儿处理 if (clientsocketchannel.read(requestbuffer) == 0){ // 进入下一个循环,即处理下一个channel continue; } while (clientsocketchannel.isopen() && clientsocketchannel.read(requestbuffer) != -1) { if (requestbuffer.position() > 0) { break; } } if (requestbuffer.position() == 0) { // 如果没有数据,就不再进行后续处理,而是进入下一个循环 continue; } requestbuffer.flip(); system.out.println("server receive a message: " + new string(requestbuffer.array())); system.out.println("server receive a message from: " + clientsocketchannel.getremoteaddress()); // 响应结果 200 string response = "http/1.1 200 ok\r\n" + "content-length: 12\r\n\r\n" + "hello world!"; bytebuffer responsebuffer = bytebuffer.wrap(response.getbytes()); while (responsebuffer.hasremaining()) { clientsocketchannel.write(responsebuffer); } // 新增:如果运行到这里,说明返回的数据已经返回了 // 我认为,如果是长连接的话,这里的处理应当更加严密(当然这只是一个过渡demo版本) socketchanneliterator.remove(); // 我认为,应当进行close等资源释放操作。并且应该先remove(),再close clientsocketchannel.close(); } } } } }
nio_serverv3
package tech.jarry.learning.netease.again; import java.io.ioexception; import java.net.inetsocketaddress; import java.nio.bytebuffer; import java.nio.channels.selectionkey; import java.nio.channels.selector; import java.nio.channels.serversocketchannel; import java.nio.channels.socketchannel; import java.util.iterator; import java.util.set; /** * @description: 这个版本,充分利用了nio的第三个支柱-selector,完成事件驱动的转型 * 注意,上个版本使用循环,就类似自旋(自旋相对比较底层,小),虽然解决了bio的每个client占据一个线程的资源消耗(主要是内存),但是加大了cpu的消耗(cpu要不断进行循环,判断,即使是无效的操作) * nio通过selector,建立事件驱动模型,来解决这一问题。即只有当特定的事件(如连接建立完成)发生,才会进行对应的事件处理(从而避免了cpu的无效消耗,提高效率) * 私语:很多javaer一直停留在初级层次(网络编程只能百度,使用bio),就是无法突破事件驱动模型这种抽象层次更高的高层思想 * @description: 为了更好地学习与理解netty,基础的nio再过一遍 * @author: jarry */ public class nioserverv2 { public static void main(string[] args) throws ioexception { // 1.创建并配置serversocketchannel serversocketchannel serversocketchannel = serversocketchannel.open(); serversocketchannel.configureblocking(false); serversocketchannel.socket().bind(new inetsocketaddress(8080)); // 2.创建selector,并完成selectionkey的注册,并完成初始化监听 // selector在非阻塞的基础上,实现了一个线程管理多个channel(也就常说的“多路复用”) // 那可不可以理解为一个selector管理多个channel,监听多个channel(后续代码中,除了server外,还有client们都注册到了这个selector中) selector selector = selector.open(); selectionkey selectionkey = serversocketchannel.register(selector, 0, serversocketchannel); selectionkey.interestops(selectionkey.op_accept); system.out.println("server start success "); // 3.开始循环处理各个事件 while (true) { // 1.通过.select()阻塞当前线程,直到有注册的selectionkey触发(触发是,会将对应的selectionkey复制到selected set中) selector.select(); // 2.获取触发的selectionkey集合 set<selectionkey> selectionkeyset = selector.selectedkeys(); // 3.遍历处理触发的selectionkey集合 iterator<selectionkey> iterator = selectionkeyset.iterator(); while (iterator.hasnext()){ // 1.获得触发的selectionkey selectionkey selectedkey = iterator.next(); // 2.从集合中移除正在处理的selectionkey(单线程也可以在处理完后移除,但多线程中就可能出现同一selectionkey被多个线程处理) iterator.remove(); // 3.根据iteration触发的事件类型,进行对应处理(这里demo为了简单一些,就只处理accept与read事件类型) if (selectedkey.isacceptable()){ // 如果selectedkey触发的是accept事件类型,即serversocketchannel通过accept获得了一个客户端连接 // 1.获得服务端serversocketchannel(即之前监听accept事件时,放入attachment的可选对象,便于后续处理) serversocketchannel server = (serversocketchannel)selectedkey.attachment(); // 2.获得客户端socketchannel(利用刚刚获得的server,与触发的.accept()方法),便于后续操作 socketchannel client = server.accept(); // 3.配置客户端socketchannel(毕竟socketchannel也是默认配置阻塞的) client.configureblocking(false); // 4.注册新的事件(既然已经连接成功,那么开始注册如read等新事件,便于后续监听) // 也可以采取类似初始化阶段那样两句代码完成,但是这里不需要(也可以说时表现一个新的处理方法) client.register(selector, selectionkey.op_read, client); // 5.日志打印 system.out.println("server has connect a new client: "+ client.getremoteaddress()); } if (selectedkey.isreadable()){ // 如果selectedkey触发的是可读事件类型,即当前selectionkey对应的channel可以进行读操作(但不代表就一定有数据可以读) // 1.获得客户端socketchannel(即之前监听事件处理时,注册read事件时置入的attachment对象) socketchannel client = (socketchannel)selectedkey.attachment(); // 2.新建一个bytebuffer用于缓冲数据(或者说,用来盛放数据) bytebuffer requestbuffer = bytebuffer.allocate(1024); // 3.判断对应client是否处于open状态,对应channel内是否有可读数据(如果不满足就跳过该循环) // 原本我在想我都已经移除了对应的key,这里又没有处理数据,那下一次不就没有对应key了。 // 但实际是我移除的是.selectedkeys()选出来的key(是复制体),下次触发read事件,还会有对应key被selectedkeys选出来的。 while (client.isopen() && client.read(requestbuffer) != -1){ // 达到这里,说明对应channel中是有对应数据的 // 开始读取数据 if (requestbuffer.position() > 0){ // 这里为了简化处理,就设定为一旦读取了数据就算读取完毕 // 注意:读取的操作在loop的判断条件中,client.read(requestbuffer) //todo_finish 疑问:既然这里设置的是>0就break,那为什么实际操作中,数据(字符串)是读完了呢 // 答案:while循环条件的read就是完成了当前缓冲区数据的读取。 //而循环体中的if在生产环境可能更多是进行(编解码的沾包拆包处理等)。 break; } } // 4.如果requestbuffer为空,即没有读取到数据,那就跳出本次selectionkey的处理 if (requestbuffer.position() == 0){ continue; } // 5.到达这里说明requestbuffer.position()不为0,即bytebbuffer不为空,即读取到了数据,那么就处理数据 // 5.1 将requestbuffer从写模式转为读模式 requestbuffer.flip(); // 5.2 业务处理:将brequestbuffer中的数据打印出来(切记,只有.allocate()分配的非直接内存的bytebuffer才可以.array()) system.out.println(new string(requestbuffer.array())); system.out.println("server has receive a message from: "+client.getremoteaddress()); // 6.返回响应 // 6.1 模拟一下http协议的响应,便于浏览器解析(响应结果 200) string response = "http/1.1 200 ok\r\n" + "content-length: 11\r\n\r\n" + "hello world"; // 6.2 通过bytebuffer.wrap()将数据置入响应的bytebuffer bytebuffer responsebuffer = bytebuffer.wrap(response.getbytes()); // 6.2 将响应的bytebuffer写入到客户端socket中(底层会自动将该数据发送过去,额,好吧。实际是交由操作系统底层处理) while (responsebuffer.hasremaining()) { client.write(responsebuffer); } } } //todo_finished 不理解这句的目的是什么,这是一个类似.select()的非阻塞式方法。 // epoll空论的一种解决方案,但是无法根本解决问题,最好还是如netty那样refresh解决 selector.selectnow(); } } }
reactor模型
介绍
在了解nio之后,估计很多人都太叹服于它的设计,它的效率,它的性能。nio由于其模型,充分发挥了单线程的性能,但是单线程往往就意味着性能瓶颈(如单线程是无法发挥多核cpu的性能的)。
所以,如何实现nio的多线程成为了网络编程的发展方向。
当然如果只是为了将nio与多线程结合起来,其实并不是十分困难。但是如何有机结合(既充分发挥多线程性能,又不产生过多的性能浪费),并确保可扩展性才是真正的关键。
这个时候doug lea这个java大神(真的佩服),发表了一篇文章scalable io in java,提出了解决问题,甚至都给出了demo。
首先是基本的reactor线程模型设计:
在reactor基本线程模型中,doug lea将nio进行accept操作的部分提取出来,通过一个单一线程acceptor(也就是当前线程)实现client的accept信号的监听,并进行分发(进行后续事件的注册)。
而当监听到read等事件后,通过dispatch将相关事件处理分发到线程池treadpool中,交由worker thread进行具体业务处理。
当然这样的线程模型,其扩展性依旧无法满足需求,其性能瓶颈,会卡在acceptor线程上。所以doug lea进而提出了multiple reactors
其设计是将原先的基本reactor线程模型的reactor拆分为mainreactor与subreactor,中间通过acceptor连接,从而降低原先基本reactor线程模型中acceptor的压力。
优点
- 优秀的可扩展性
- 更高的性能瓶颈
缺点
- 需要nio的理解基础
- 需要理解reactor线程模型
- 代码实现较为复杂(相较原先的nio与bio)
代码示例
这里给出一些简单的demo,供大家认识。
nio_client(和之前的nio_client没有任何区别)
package tech.jarry.learning.netease; import java.io.ioexception; import java.net.inet4address; import java.net.inetsocketaddress; import java.nio.bytebuffer; import java.nio.channels.socketchannel; import java.util.scanner; /** * @description: nio模型下的tcp客户端实现 * @author: jarry */ public class nioclient { public static void main(string[] args) throws ioexception { // 获得一个socektchannel socketchannel socketchannel = socketchannel.open(); // 设置socketchannel为非阻塞模式 socketchannel.configureblocking(false); // 设置socketchannel的连接配置 socketchannel.connect(new inetsocketaddress(inet4address.getlocalhost(), 8080)); // 通过循环,不断连接。跳出循环,表示连接建立成功 while (!socketchannel.finishconnect()){ // 如果没有成功建立连接,就一直阻塞当前线程(.yield()会令当前线程“谦让”出cpu资源) thread.yield(); } // 发送外部输入的数据 scanner scanner = new scanner(system.in); system.out.println("please input:"); string msg = scanner.nextline(); // bytebuffer.wrap()会直接调用heapbytebuffer。故一方面其会自己完成内存分配。另一方面,其分配的内存是非直接内存(非heap堆) bytebuffer bytebuffer = bytebuffer.wrap(msg.getbytes()); // bytebuffer.hasremaining()用于判断对应bytebuffer是否还有剩余数据(实现:return position < limit;) while (bytebuffer.hasremaining()){ socketchannel.write(bytebuffer); } // 读取响应 system.out.println("receive echoresponse from server"); // 设置缓冲区大小为1024 bytebuffer requestbuffer = bytebuffer.allocate(1024); // 判断条件:是否开启,是否读取到数据 //todo 我认为这里的实现十分粗糙,是不可以置于生产环境的,具体还需要后面再看看(即使是过渡demo,也可以思考一下嘛) while (socketchannel.isopen() && socketchannel.read(requestbuffer) != -1){ // 长连接情况下,需要手动判断数据有没有读取结束 (此处做一个简单的判断: 超过0字节就认为请求结束了) if (requestbuffer.position() > 0) { break; } } requestbuffer.flip(); // byte[] content = new byte[requestbuffer.limit()]; // // .get()方法只会返回byte类型(猜测是当前标记位的数据) // requestbuffer.get(content); // system.out.println(new string(content)); // bytebuffer提供了大量的基本类型转换的方法,可以直接拿来使用 system.out.println(new string(requestbuffer.array())); scanner.close(); socketchannel.close(); } }
nio_serverv4_reactorv1
package tech.jarry.learning.netease; import java.io.ioexception; import java.net.inetsocketaddress; import java.nio.bytebuffer; import java.nio.channels.*; import java.util.iterator; import java.util.random; import java.util.set; import java.util.concurrent.*; import java.util.concurrent.atomic.atomicinteger; /** * @description: 根据doug lea大神的多路复用reactor线程模型,进行编码,学习reactor设计模式在网络编程的重要体现 * 注意:nioserverv2作为一个demo已经不错了。但是仍然存在致命的性能瓶颈(其实很明显,整个网络编程就靠一个线程实现全部工作,肯定不行,起码没法充分发挥多核cpu的能力) * 故将服务端常用的部分分为accept,read,bussinessdeal三个部分(第三部分,本demo就不深入了) * @author: jarry */ public class nioserverv3 { // 处理业务操作的线程 private static executorservice workpool = executors.newcachedthreadpool(); /** * 封装了selector.select()等事件的轮询的共用代码 */ abstract class reactorthread extends thread { selector selector; linkedblockingqueue<runnable> taskqueue = new linkedblockingqueue<>(); /** * selector监听到有事件后,调用这个方法(不过具体实现,需要基类自己实现) * @param channel */ public abstract void handler(selectablechannel channel) throws exception; private reactorthread() throws ioexception { selector = selector.open(); } // 用于判断线程运行状态 volatile boolean running = false; @override public void run() { // 轮询selector事件 while (running) { try { // 执行队列中的任务 runnable task; while ((task = taskqueue.poll()) != null) { task.run(); } selector.select(1000); // 获取查询结果 set<selectionkey> selected = selector.selectedkeys(); // 遍历查询结果 iterator<selectionkey> iter = selected.iterator(); while (iter.hasnext()) { // 被封装的查询结果 selectionkey key = iter.next(); iter.remove(); int readyops = key.readyops(); // 关注 read 和 accept两个事件 if ((readyops & (selectionkey.op_read | selectionkey.op_accept)) != 0 || readyops == 0) { try { selectablechannel channel = (selectablechannel) key.attachment(); channel.configureblocking(false); handler(channel); if (!channel.isopen()) { key.cancel(); // 如果关闭了,就取消这个key的订阅 } } catch (exception ex) { key.cancel(); // 如果有异常,就取消这个key的订阅 } } } selector.selectnow(); } catch (ioexception e) { e.printstacktrace(); } } } private selectionkey register(selectablechannel channel) throws exception { // 为什么register要以任务提交的形式,让reactor线程去处理? // 因为线程在执行channel注册到selector的过程中,会和调用selector.select()方法的线程争用同一把锁 // 而select()方法是在eventloop中通过while循环调用的,争抢的可能性很高,为了让register能更快的执行,就放到同一个线程来处理 futuretask<selectionkey> futuretask = new futuretask<>(() -> channel.register(selector, 0, channel)); taskqueue.add(futuretask); return futuretask.get(); } private void dostart() { if (!running) { running = true; start(); } } } // 0. 创建serversocketchannel private serversocketchannel serversocketchannel; // 1、创建多个线程 - accept处理reactor线程 (accept线程) private reactorthread[] mainreactorthreads = new reactorthread[1]; // 2、创建多个线程 - io处理reactor线程 (i/o线程) private reactorthread[] subreactorthreads = new reactorthread[8]; /** * 初始化线程组 */ private void initgroup() throws ioexception { // 创建io线程,负责处理客户端连接以后socketchannel的io读写 for (int i = 0; i < subreactorthreads.length; i++) { subreactorthreads[i] = new reactorthread() { @override public void handler(selectablechannel channel) throws ioexception { // work线程只负责处理io处理,不处理accept事件 socketchannel ch = (socketchannel) channel; bytebuffer requestbuffer = bytebuffer.allocate(1024); while (ch.isopen() && ch.read(requestbuffer) != -1) { // 长连接情况下,需要手动判断数据有没有读取结束 (此处做一个简单的判断: 超过0字节就认为请求结束了) if (requestbuffer.position() > 0) { break; } } if (requestbuffer.position() == 0) { return; // 如果没数据了, 则不继续后面的处理 } requestbuffer.flip(); byte[] content = new byte[requestbuffer.limit()]; requestbuffer.get(content); system.out.println(new string(content)); system.out.println(thread.currentthread().getname() + "收到数据,来自:" + ch.getremoteaddress()); // todo 业务操作 数据库、接口... workpool.submit(() -> { }); // 响应结果 200 string response = "http/1.1 200 ok\r\n" + "content-length: 11\r\n\r\n" + "hello world"; bytebuffer buffer = bytebuffer.wrap(response.getbytes()); while (buffer.hasremaining()) { ch.write(buffer); } } }; } // 创建mainreactor线程, 只负责处理serversocketchannel for (int i = 0; i < mainreactorthreads.length; i++) { mainreactorthreads[i] = new reactorthread() { atomicinteger incr = new atomicinteger(0); @override public void handler(selectablechannel channel) throws exception { // 只做请求分发,不做具体的数据读取 serversocketchannel ch = (serversocketchannel) channel; socketchannel socketchannel = ch.accept(); socketchannel.configureblocking(false); // 收到连接建立的通知之后,分发给i/o线程继续去读取数据 int index = incr.getandincrement() % subreactorthreads.length; reactorthread workeventloop = subreactorthreads[index]; workeventloop.dostart(); selectionkey selectionkey = workeventloop.register(socketchannel); selectionkey.interestops(selectionkey.op_read); system.out.println(thread.currentthread().getname() + "收到新连接 : " + socketchannel.getremoteaddress()); } }; } } /** * 初始化channel,并且绑定一个eventloop线程 * * @throws ioexception io异常 */ private void initandregister() throws exception { // 1、 创建serversocketchannel serversocketchannel = serversocketchannel.open(); serversocketchannel.configureblocking(false); // 2、 将serversocketchannel注册到selector int index = new random().nextint(mainreactorthreads.length); mainreactorthreads[index].dostart(); selectionkey selectionkey = mainreactorthreads[index].register(serversocketchannel); selectionkey.interestops(selectionkey.op_accept); } /** * 绑定端口 * * @throws ioexception io异常 */ private void bind() throws ioexception { // 1、 正式绑定端口,对外服务 serversocketchannel.bind(new inetsocketaddress(8080)); system.out.println("启动完成,端口8080"); } public static void main(string[] args) throws exception { nioserverv3 nioserverv3 = new nioserverv3(); nioserverv3.initgroup(); // 1、 创建main和sub两组线程 nioserverv3.initandregister(); // 2、 创建serversocketchannel,注册到mainreactor线程上的selector上 nioserverv3.bind(); // 3、 为serversocketchannel绑定端口 } }
nio_serverv4_reactorv2
为了更好的理解reactor线程模型,我将之前的reactor代码,按照我的代码习惯,做了一些调整。
这个部分理解是有一些困难的,推荐多看几遍,如我这样手撸两边,第二遍可以根据自己的习惯,进行代码结构的调整。
package tech.jarry.learning.netease.again; import java.io.ioexception; import java.net.inetsocketaddress; import java.nio.bytebuffer; import java.nio.channels.*; import java.util.iterator; import java.util.random; import java.util.set; import java.util.concurrent.*; import java.util.concurrent.atomic.atomicinteger; /** * @description: 为了更好地学习与理解netty,结合reactor线程模型的nio再过一遍,并做出一定的结构调整 * @author: jarry */ public class nioserverv3 { // 工作线程池,其中工作线程用于完成实际工作(如计算,编解码等工作) private static executorservice workerpool = executors.newcachedthreadpool(); // 全局变量serversocketchannel,记录服务端的channel private serversocketchannel serversocketchannel; // 创建mainreactors线程组 private mainreactorthread[] mainreactorthreads = new mainreactorthread[1]; // 创建subreactors线程组 private subreactorthread[] subreactorthreads = new subreactorthread[8]; private abstract class abstractreactorthread extends thread { // 创建selector,用于建立channel事件监听 protected selector selector; // 用于标记线程运行状态 private volatile boolean running = false; // 创建任务队列,用于多线程处理工作 private linkedblockingqueue<runnable> taskqueue = new linkedblockingqueue<>(); /** * 通过懒加载方式,实例化selector */ public abstractreactorthread() throws ioexception { selector = selector.open(); } @override /** * 重写run方法,完成reactorthread的公共代码逻辑 */ public void run() { while (running){ // 1.通过一个巧妙的方式,遍历处理taskqueue中的所有task runnable task; while ((task = taskqueue.poll()) != null){ task.run(); } // 2.通过.select()阻塞当前线程,直到有注册的selectionkey触发(之所以等待1000ms,应该是为了令上面的task执行完成) try { selector.select(1000l); } catch (ioexception e) { e.printstacktrace(); } // 3.接下来的操作类似,遍历处理各种监听到的事件 set<selectionkey> selectionkeyset = selector.selectedkeys(); iterator<selectionkey> iterator = selectionkeyset.iterator(); while (iterator.hasnext()){ selectionkey selectedkey = iterator.next(); iterator.remove(); // 获得事件类型的编号 int readyops = selectedkey.readyops(); // 通过位运算等方式,快速判断readyops是否与对应事件类型编号符合(这里作为demo只关注accept与read事件) if ((readyops & (selectionkey.op_read | selectionkey.op_accept)) != 0 || readyops == 0) { // 根据v2的编程了解,.attachment返回的极可能是服务端的serversocketchannel,也可能是客户端的socketchannel,故采用他们共同的父类selectablechannel selectablechannel channel = (selectablechannel)selectedkey.attachment(); try { // 老规矩,将channel设置为非阻塞式的 channel.configureblocking(false); // 将channel交给抽象方法reactorhandler解决,(具体实现由各自子类去实现) //todo_finish 话说,如何确定哪个子类解决哪个问题 // 答案:抽象类不会实例化成对象 // 这里的reactorhandler都是由对应子类调用的。mainreactorthread只有在注册时调用,并且是直接置入taskqueue,第二次不会到这里 reactorhandler(channel); } catch (ioexception e) { e.printstacktrace(); } catch (interruptedexception e) { e.printstacktrace(); } catch (executionexception e) { e.printstacktrace(); } // 判断channel是否关闭 if (!channel.isopen()){ // 如果channel已经关闭,那么其上的selectionkey就可以取消订阅了 selectedkey.cancel(); } } } //todo 这个还是看不懂 try { selector.selectnow(); } catch (ioexception e) { e.printstacktrace(); } } } /** * 根据提交的channel,进行注册处理(毕竟调用这个方法的,也只有此类,与衍生类了) * @param channel * @return */ protected selectionkey register(selectablechannel channel) throws executionexception, interruptedexception { // 为什么register要以任务提交的形式,让reactor线程去处理? // 因为线程在执行channel注册到selector的过程中,会和调用selector.select()方法的线程争用同一把锁 // 而select()方法是在eventloop中通过while循环调用的,争抢的可能性很高,为了让register能更快的执行,就放到同一个线程来处理 // 这里无论是解决方案,还是register与select通用一把synchronized锁,都蛮令人惊叹的(虽然我不大理解为什么register要与select公用一边锁) // select -> selectorimpl.lockanddoselect 该方法的执行内容采用了synchronized(this)锁 // register -> selectorimpl.register 该方法的执行内容采用了synchronized(this.publickeys)锁 (果然这个比较复杂,主要synchronized锁太多了) futuretask<selectionkey> futuretask = new futuretask<>(() -> channel.register(selector, 0, channel) ); taskqueue.add(futuretask); return futuretask.get(); } /** * 执行启动操作(其实外部可以判断线程状态的,但是这里running表示的线程状态,与规定的线程状态不同) */ protected void dostart(){ if (!running){ running = true; start(); } } /** * mainreactor与subreactor的handler处理逻辑是不同的,交由子类实现 */ protected abstract void reactorhandler(selectablechannel channel) throws ioexception, executionexception, interruptedexception; } /** * mainreactor的实现类,实现了父类的reactorhandler方法。主要完成accept的监听与处理,并进行事件分发操作 */ public class mainreactorthread extends abstractreactorthread { atomicinteger atomicinteger = new atomicinteger(0); /** * 通过懒加载方式,实例化selector */ public mainreactorthread() throws ioexception { } @override protected void reactorhandler(selectablechannel channel) throws ioexception, executionexception, interruptedexception { // 获得服务端serversocketchannel serversocketchannel server = (serversocketchannel) channel; // 获得客户端socketchannel socketchannel client = server.accept(); // 设置客户端socketchannel为非阻塞模式 client.configureblocking(false); // // 设置新的事件监听 // client.register(selector, selectionkey.op_read, client); // 不再由当前线程完成read事件的注册,毕竟当前线程只完成accept事件处理,与事件分发 // 故调用专门写的一个私有方法,进行注册 doregister(client); // 打印日志 system.out.println("server has connect a new client: "+client.getremoteaddress()); } /** * reactor线程模型下,mainreactor将read事件的注册下放到subreactor * @param client 需要进行事件(这里只处理read事件)注册的client */ private void doregister(socketchannel client) throws executionexception, interruptedexception { // 通过轮询的方式(也可以自定义,或扩展开),将事件(非accept事件,如read事件)交给subreactor线程池中的线程处理 int index = atomicinteger.getandincrement() % subreactorthreads.length; // 获取subreactorthread对象,又称workeventloop对象(为了更好地对接netty中的eventloop subreactorthread workeventloop = subreactorthreads[index]; // 调用workeventloop的dostart()方法,启动工作线程(如果之前已有事件启动了,就不会再启动了) workeventloop.dostart(); // 完成事件的注册工作(abstractreactorthread中的注册,默认监听事件编码为0。 selectionkey selectionkey = workeventloop.register(client); // 设置监听事件的编码(这样的分离,有助于不同子类的实现,更加友好) selectionkey.interestops(selectionkey.op_read); } } /** * subreactor的实现类,实现了父类的reactorhandler方法。主要完成非accept事件(这里demo特指read)的监听与处理,包括打印,计算,响应等 */ public class subreactorthread extends abstractreactorthread { /** * 通过懒加载方式,实例化selector */ public subreactorthread() throws ioexception { } @override /** * 完成非accept事件(这里特指read)事件的处理(打印与响应) */ protected void reactorhandler(selectablechannel channel) throws ioexception { // 获得客户端socketchannel socketchannel client = (socketchannel) channel; // 创建bytebuffer作为缓冲区 bytebuffer requestbuffer = bytebuffer.allocate(1024); // 尝试读取数据 while (client.isopen() && (client.read(requestbuffer)) != -1){ // 这里进行简单判断与处理 if (requestbuffer.position() > 0){ break; } } // 判断requestbuffer大小 if (requestbuffer.position() == 0){ // 如果没有数据,就不需要进行接下来的处理了 return; } // 将requestbuffer由写模式转为读模式 requestbuffer.flip(); // todo 业务操作 数据库、接口... workerpool.submit(() -> { // 如:打印请求数据 system.out.println("server get a message: "+new string(requestbuffer.array())); }); // 打印日志 system.out.println("server get a mesage from client: "+client.getremoteaddress()); // 发送响应 string response = "http/1.1 200 ok\r\n" + "content-length: 11\r\n\r\n" + "hello world"; bytebuffer responsebuffer = bytebuffer.wrap(response.getbytes()); while (responsebuffer.hasremaining()){ client.write(responsebuffer); } } } /** * reactor线程模型的初始化 * @throws ioexception * @throws executionexception * @throws interruptedexception */ public void init() throws ioexception, executionexception, interruptedexception { initgroup(); initmain(); } /** * 进行服务端,端口绑定 * @param port * @throws ioexception */ public void bind(int port) throws ioexception { serversocketchannel.socket().bind(new inetsocketaddress(8080)); system.out.println("server bind success"); system.out.println("server start"); } /** * 实例化两个reactor线程组 * @throws ioexception */ private void initgroup() throws ioexception { for (int i = 0; i < mainreactorthreads.length; i++) { mainreactorthreads[i] = new mainreactorthread(); } for (int i = 0; i < subreactorthreads.length; i++) { subreactorthreads[i] = new subreactorthread(); } } /** * 初始化一个mainreactorthread,来进行工作 * @throws ioexception * @throws executionexception * @throws interruptedexception */ private void initmain() throws ioexception, executionexception, interruptedexception { //todo_finished 话说,这里的mainreactorthreads只有一个线程,mainreactorthread可能多个线程嘛?还是说一个端口-》一个serversocketchannel-》一个mainreactorthread? // 参照netty的bossgroup的nioeventloopgroup // 初始化并配置serversocketchannel serversocketchannel = serversocketchannel.open(); serversocketchannel.configureblocking(false); // 从mainreactorthreads中挑选一个mainreactorthread int index = new random().nextint(mainreactorthreads.length); // 启动挑选出来的mainreactorthread mainreactorthreads[index].dostart(); // 通过挑选出来的mainreactorthread线程对服务端serversocketchannel进行注册 selectionkey selectionkey = mainreactorthreads[index].register(serversocketchannel); // 设定监听的事件编码(accept事件监听) selectionkey.interestops(selectionkey.op_accept); } public static void main(string[] args) throws ioexception, executionexception, interruptedexception { nioserverv3 nioserverv3 = new nioserverv3(); nioserverv3.init(); nioserverv3.bind(8080); } }
netty
介绍
说实话,nio优秀的网络编程模型,结合doug lea提出的reactor线程模型已经为现有的网络编程提出了一个几乎无可挑剔的解决方案。
从技术上来说,这个方案已经没有什么问题了。唯一的问题就是之前提到的缺点:
- 前置需求多(需要很熟悉nio与reactor);
- 编码比较复杂(可以看到实际落地代码,差不多200行代码只是用于实现基本结构支持)。
那么,有没有更好的解决方案呢?有的,那就netty框架。
前面提到200行代码只是实现了基本结构支持,那么这200行的代码就可以提取成为一个公共的通用模块。
netty框架做出了优秀的封装(如nioeventloopgroup,bytebuf,serverbootstrap等等),而且解决了nio的epoll空轮询等问题,更是提供了诸多的工具类,提供便利。
netty的架构分为三个部分:
- serverbootstrap:引导器,引导使用者,建立eventloop;
- channelinitializer:初始器,建立channelpipeline,通过责任链,管理处理器;
- channelhandler:处理器,处理各种业务逻辑,如编解码,协议切换,加解密等。
从官方的结构图,可以看出其中包含三大模块:
- 支持socket等多种传输方式;
- 提供了多种协议的编解码实现;
- 核心设计包含事件处理模型,api的使用,bytebuffer的增强bytebuf。
优点
- 优秀的可扩展性
- 极高的性能瓶颈(netty实现百万连接不要太简单,客户端+服务端配置只需要内存达到8g即可)
- 不需要理解nio,reactor
- 代码实现简单
缺点
- 需要了解netty的使用(但是依靠demo,入门还是比较简单)
- netty易学难精(入门,熟练比较简单,但是精通比较难):
- 缺乏前置理论,源码很难深入理解;
- netty涉及一些设计模式,如责任链,单例,策略,观察者等;
- netty独有的bytebuf,及其零拷贝等概念;
- netty涉及诸多工具类,如http编解码工具类等。
代码示例
这里给出一个简单的demo(根据官方提供的echoserverdemo,增加了一些注释),供大家认识。
netty_echo_server
package tech.jarry.learning.netease.example; import io.netty.bootstrap.serverbootstrap; import io.netty.channel.channelfuture; import io.netty.channel.channelinitializer; import io.netty.channel.channeloption; import io.netty.channel.channelpipeline; import io.netty.channel.eventloopgroup; import io.netty.channel.nio.nioeventloopgroup; import io.netty.channel.socket.socketchannel; import io.netty.channel.socket.nio.nioserversocketchannel; import io.netty.handler.logging.loglevel; import io.netty.handler.logging.logginghandler; /** * echoes back any received data from a client. */ public final class echoserver { static final int port = integer.parseint(system.getproperty("port", "8080")); public static void main(string[] args) throws exception { // configure the server. // 创建eventloopgroup accept线程组 nioeventloop eventloopgroup bossgroup = new nioeventloopgroup(1); // 创建eventloopgroup i/o线程组 eventloopgroup workergroup2 = new nioeventloopgroup(1); try { // 服务端启动引导工具类 serverbootstrap b = new serverbootstrap(); // 配置服务端处理的reactor线程组以及服务端的其他配置 b // 设置两个线程组(reactor线程模型中的mainreactorthreads与subreactorthreads)。说白了就是两个线程池 .group(bossgroup, workergroup2) // 设置采用的channel类型(nioserversocketchannel对应serversocketchannel,其它类似),底层实现用的反射 /** * channelfactory 的 newchannel() 方法什么时候会被调用就可以了。 * 对于 niosocketchannel,由于它充当客户端的功能,它的创建时机在 connect(…) 的时候; * 对于 nioserversocketchannel 来说,它充当服务端功能,它的创建时机在绑定端口 bind(…) 的时候。 */ .channel(nioserversocketchannel.class) //todo 只看到是用于配置,详细还不了解 .option(channeloption.so_backlog, 100) // 设置handler,这里设置了netty提供的日志channelhandler(并采用了debug级别) .handler(new logginghandler(loglevel.debug)) // 设置childhandler 这里可以通过channelinitializer实例,来放入多个channelhandler(需要重写其中的.initchannel()方法) .childhandler(new channelinitializer<socketchannel>() { @override public void initchannel(socketchannel ch) throws exception { // 通过socketchannel获得channelpipeline channelpipeline p = ch.pipeline(); // 在channelpipeline后面添加新的channelhandler /** * 每个 channel 内部都有一个 pipeline,pipeline 由多个 handler 组成, * handler 之间的顺序是很重要的,因为 io 事件将按照顺序顺次经过 pipeline 上的 handler, * 这样每个 handler 可以专注于做一点点小事,由多个 handler 组合来完成一些复杂的逻辑。 * * inbound 和 outbound。在 netty 中,io 事件被分为 inbound 事件和 outbound 事件。 * 例如: * 1. pipeline.addlast(new stringdecoder()); * 2. pipeline.addlast(new stringencoder()); * 3. pipeline.addlast(new bizhandler()); */ p.addlast(new echoserverhandler()); } }); // 通过bind启动服务(netty的channelfuture继承自jdk的future,只不过多了一些方法 channelfuture f = b // 服务端用于绑定端口(其中还涉及java的channel等操作) .bind(port) // channelfuture新增的.sync()区别于新增的.await() /** * sync() 和 await() 用于阻塞等待 * sync() 内部会先调用 await() 方法,等 await() 方法返回后,会检查下这个任务是否失败,如果失败,重新将导致失败的异常抛出来。 * 也就是说,如果使用 await(),任务抛出异常后,await() 方法会返回,但是不会抛出异常,而 sync() 方法返回的同时会抛出异常。 */ .sync(); // 阻塞主线程,知道网络服务被关闭 f // 用于获得封装在netty的channelfuture内的channel(java的),便于进行下一步操作 .channel() // 当netty的channelfuture被关闭时,返回channelfuture .closefuture() // 同上 .sync(); } finally { // 关闭线程组 bossgroup.shutdowngracefully(); workergroup2.shutdowngracefully(); } } }
从上面的代码,可以看到,利用建造者模式,通过一个固定的模板,netty就可以实现一个简单的echoserver了。
使用的时候,一般业务的处理只是在修改其中pipeline的handler。
通过netty,我们几乎只需要关注业务方面的,并且利用netty的pipeline,可以很轻松的编排handler。
总结
技术演变
网络模型其实是开发人员思维的体现。而网络模型的演变其实就是开发人员思维的演变。
思维演变
这里我通过一个例子,来展现网络模型演变中思维的演变。
bio
客户(client)到公司(server)办理业务,会找到前台的小姐姐(acceptor),由小姐姐引导着,处理各类业务。
但是,当存在复数位客户时,就需要在前台排队,等待前台小姐姐招待好最前面的客户。
为了解决这个排队问题,boss打算招聘多位小姐姐(线程池)。但是客户的到来有时多,有时少,所以前台小姐姐也是有时候很空闲,有时候很繁忙。
nio
由于小姐姐引导客户处理业务时,客户经常由于填表(业务处理中数据库操作等)等操作,导致小姐姐在一旁等待。而这时候,前台还有客户在等待。
为了解决这个问题,boss在前台放置了一个铃铛(accept注册)。
当有新的客户到来时,小姐姐就会给他一个新的铃铛(read等事件注册),用于在处理业务时呼唤她。
reactor(basic reactor)
随着客户处理业务的上升,boss招收了多位工作人员(worker thread),用于引导客户处理业务。
而小姐姐(acceptor)只负责招待客户(只处理accept事件),交给客户新的铃铛(read等事件注册)。客户通过新的铃铛找到工作人员,处理业务。
reactor(multiple reactor)
随着业务规模的进一步提升,一位前台小姐姐已经忙不过来了。
boss就在前台安排了多位小姐姐,招待与引导客户。
netty
看到boss的成功,许多人都争相模仿,但是由于了解不深刻,总是出现各种问题。
boss希望通过这一成功经验,帮助到其它人,所以制作了一款工作流软件(netty)。
其他人只需要下载这个软件,然后按照其中的简单引导,进行设置,就可以轻松使用。
问题解决
解决问题一般都是三个步骤:
- 先通过一些比较简单,比较暴力的方式解决问题;
- 再根据问题解决过程中的一些思想火花,以及一些资料,优化解决方案;
- 然后根据需要,视情况看,是否执行这一步。查阅各种资料,请教各位前辈,在原来的基础上,再进一步优化;
- 最后,在无法提升的情况下,考虑将这个解决方案,做成一个工具,一个框架,去帮助其他人。
就像我在leetcode上,一般第一步,都是先按照自己最直观的想法,先尝试解决问题,然后再考虑优化,最后思考是否可以通用化,工具化等。
留言
这次只是简单提一些网络编程的演变过程,也算是帮助大家入门吧。
后续会进行深入的原理分析与总结,并会写成博客,发布出来的。
下一篇: 一文掌握 Lambda 表达式