说起网络 IO 相关的开发,很多人都头大,包括我自己,写了几年的代码,对 IO 相关的术语说起来也是头头是道,什么 NIO、IO 多路复用等术语一个接一个。但是也就自己知道,这些概念一团乱,网上各种各样的文章也没一个权威易懂的,并且很多文章说起 IO 就扯上 Java 的 NIO 包,专注的大多是如何使用(术)而不是 IO 的本质(道)。所以写这篇文章来从 socket 编程的痛点,转到 NIO 的解决方案,再到多路复用器的发展来一起梳理网络IO 模型。
成都创新互联专业为企业提供三穗网站建设、三穗做网站、三穗网站设计、三穗网站制作等企业网站建设、网页设计与制作、三穗企业网站模板建站服务,10多年三穗做网站经验,不只是建网站,更提供有价值的思路和整体网络服务。
做业务开发的同学,常常面对的是 Spring Boot 这些框架帮我们搭建好的 Server 框架,但是如果往下去看框架帮我们实现的代码最终会看到 Socket 相关的源码, Socket 相关的代码实际上就是 TCP 网络编程。
目前主流的 HTTP 框架,比如 Golang 原生的 HTTP net/http,都是基于 TCP 编程实现的,按照 HTTP 协议约定,解析 TCP 传输流过来的数据,最终将传输数据转换为一个 Http Request Model 交给我们业务的 Handler 逻辑处理。
例如,Golang 的 原生 Http 框架 net/http 为例就有这么些代码片段:
l, err = sl.listenTCP(ctx, la) // 监听连接请求
rw, e := l.Accept() // 创建连接
go c.serve(connCtx) // 调用新的协程处理请求逻辑
w, err := c.readRequest(ctx) // 读取请求
serverHandler{c.server}.ServeHTTP(w, w.req) // 执行业务逻辑,并返回结果
如果用代码手写 Socket 服务端,用 Java 实现是这样的:
public class Server {
public static void main(String[] args) throws Exception {
String clientSentence;
String capitalizedSentence;
ServerSocket welcomeSocket = new ServerSocket(6789);
while (true) {
Socket connectionSocket = welcomeSocket.accept(); // 当没请求会阻塞住
System.out.println("connection build succ!");
BufferedReader inFromClient = new BufferedReader(new InputStreamReader(connectionSocket.getInputStream()));
DataOutputStream outToClient = new DataOutputStream(connectionSocket.getOutputStream());
clientSentence = inFromClient.readLine(); // 连接上但是客户端还没写入数据会阻塞住
System.out.println("read succ!");
capitalizedSentence = clientSentence.toUpperCase() + '\n';
outToClient.writeBytes(capitalizedSentence);
System.out.println("write succ!");
}
}
}
我们可以用 Telnet 连接上去尝试下,但是很快我们会发现两个问题:
对于 Read 是阻塞的问题,我们开线程来处理,这样当一个请求连接上迟迟不写数据也不会影响到其他连接的处理了。当然这里得考虑到量级,如果量级太大的话需要改成线程池避免线程过多。
public class Server {
public static void main(String[] args) throws Exception {
ServerSocket welcomeSocket = new ServerSocket(6789);
while (true) {
Socket connectionSocket = welcomeSocket.accept(); // 当没请求会阻塞住
System.out.println("connection build succ!");
new Thread(new Runnable() {
@Override
public void run() {
try {
String clientSentence;
String capitalizedSentence;
BufferedReader inFromClient = new BufferedReader(new InputStreamReader(connectionSocket.getInputStream()));
DataOutputStream outToClient = new DataOutputStream(connectionSocket.getOutputStream());
clientSentence = inFromClient.readLine(); // 连接上但是客户端还没写入数据会阻塞住
System.out.println("read succ!");
capitalizedSentence = clientSentence.toUpperCase() + '\n';
outToClient.writeBytes(capitalizedSentence);
System.out.println("write succ!");
}catch (Exception e) {
e.printStackTrace();
}
}
}).start();
}
}
}
这个时候,我们用 telnet 客户端连接已经感受不到服务端的瓶颈了。但是从我们上的分析来看,Accept 还是有瓶颈的,就是同时只能对一个请求做连接,而且即使是线程池的模式,如果连接(特别是空闲的)很多,最终也会出现阻塞的情况。
如果你的业务场景是连接数不多,同时又需要频繁的交互数据,那么用 BIO 模式无论是对时延还是资源使用都有不错的效果(相当于 VIP 1v1 服务)。
但是,我们的服务端代码通常是面对海量的连接的,且很多客户端连接上,并不会马上发送请求,例如聊天室应用,很久用户才会发送1条消息。这个时候如果还是这种 1v1 模式,那么有 100w 个用户,就需要维护 100个连接,显然是不合适,这太浪费资源了,而且很低效,大部分线程都是在 Block 等待用户数据。
所以,这个时候 NIO(异步io)横空出世了。网上有一张比较好的对比图,可以很好地解释差异:
我们上文说的就是 阻塞I/O ,而现在要讲的是非阻塞I/O。图上主要阐述的是 `read()` 方法的过程,主要包括两部分:
第一阶段:等待TCP RecvBuffer 数据就绪,这个在传统的BIO里如果数据没就绪,就会阻塞等待,不消耗CPU。
第二阶段:将数据从内核拷贝到用户空间,消耗CPU但是速度非常快,属于 memory copy。
所以对于 非阻塞I/O 来说,主要要优化的是调用 `read()` 方法数据还未就绪导致阻塞问题。这个解决方法很简单,大部分编程语言都有提供 nio 的方法,只要数据还没准备就绪不要block,直接返回给调用者就可以了。这样我们这个线程就可以接着去处理其他连接的数据,这样就不用每个连接单独只有一个线程来服务了。
对于非阻塞 I/O 模式,开发者仍然需要不断去轮询事件状态,如果请求量级很大, 这样的机制同样还是会浪费很多资源,同时开发难度较高。其实想一想,我们作为开发者的诉求无非就是监听某些事件,比如完成链接(accept完成)、数据就绪(可read)等。关于事件的监听其实也无关乎编程语言,在操作系统层面就可以做而且可以做的更高效。操作系统上提供了一系列系统调用,比如 select/poll/epool,这些系统调用后会阻塞,当有对应的事件到来触发我们注册到事件上的Handler逻辑。
所以简单来说,就是上文说的 非阻塞I/O 用户自行写轮询查看状态的逻辑被收敛到操作系统这里提供的 I/O 复用器了,整个程序执行起来的逻辑大概变成这样。
interface ChannelHandler{
void channelReadable(Channel channel);
void channelWritable(Channel channel);
}
class Channel{
Socket socket;
Event event;//读,写或者连接
}
//IO线程主循环:
class IoThread extends Thread{
public void run(){
Channel channel;
while(channel=Selector.select()){//选择就绪的事件和对应的连接
if(channel.event==accept){
registerNewChannelHandler(channel);//如果是新连接,则注册一个新的读写处理器
}
if(channel.event==write){
getChannelHandler(channel).channelWritable(channel);//如果可以写,则执行写事件
}
if(channel.event==read){
getChannelHandler(channel).channelReadable(channel);//如果可以读,则执行读事件
}
}
}
MaphandlerMap;//所有channel的对应事件处理器
}
目前大多高性能的网络IO框架主要都是基于IO多路复用 + 池化技术的的 Reactor 模型,Reactor 其实只是一个网络模型概念并不是具体的某项具体技术。常见的主要有三种,单Reactor + 单进程/单线程、单Reactor + 多线程、多Reactor + 多进程/多线程。
多路复用器 Select 返回结果后,有个 Dispatch 用于分发结果事件。如果是连接建立事件,Acceptor接受连接并创建对应的Handler来处理后续事件。如果不是连接事件,直接调用对应的 Handler,Handler 完成数据读取 read 、process、send 的完整业务流程。
这种模式优点是简单、不用考虑进程间通信、线程安全、资源竞争等问题,但是也有自身局限性,也就是无法充分利用多核资源,适用于业务场景处理很快的场景,比如 Redis 就是用这种方案。
相比于上一种方案,不同的是 Handler 只负责数据读取不负责处理事件,而是有一个单独的 Worker 线程池来做具体的事情。之所以 processor 要隔离单独的线程池是因为 `read` 方法本身是需要消耗 cpu 资源的,通常不适合大于 cpu 核数,而用户自定义的 processor 逻辑里可能有各种网络请求,比如 RPC 请求,如果隔离开来,那么 processor 可以设置更大的线程数,提升吞吐量。
这种模式已经可以比较充分利用到多核资源了,但是问题在于主线程承担了所有的事件监听和响应。瞬间高并发时可能成为瓶颈,这就需要多 Reactor 的方案了。
处理步骤:
目前著名的开源系统 Nginx 采用的是多 Reactor 多进程,采用多 Reactor 多线程的实现有Memcache 和 Netty。不过需要注意的是 Nginx 中与上图中的方案稍有差异,具体表现在主进程中并没有mainReactor来建立连接,而是由子进程中的subReactor建立。
服务器实现模式为一个有效请求一个线程,客户端的I/O请求都是由OS先完成了再通知服务器应用去启动线程进行处理,AIO又称为NIO2.0,在JDK7才开始支持。但是由于 Linux 上 AIO 的底层实现并不好,所以目前没有被广泛使用。比如大名鼎鼎的Netty框架也是使用NIO而非AIO。
这篇文章从 socket 编程出发,你了解到了怎么利用socket编写服务端代码,然后在 socket 编程时发现了痛点,一个在于 accept 建立连接会阻塞线程,另一个在于 read 数据时会阻塞,为了解决阻塞可能导致的低效问题,我们尝试了用多线程方法来初步解决。
但是在这之后,我们又看到面对海量连接时,BIO 力不从心的现象,所以引入了 NIO 模型。这里阐述了从 NIO 到 多路复用器的进步,相当于是操作系统帮我们做了海量连接事件的监听,这个模式也被称作 Reactor 模式。最后讲到了异步I/O,虽然理想很美好,但是底层基建并不完善,目前这种模式在生产中被使用还比较少。
我写这篇文章,并没有描述很多具体的API,因为我希望通过这个文章来帮助大家真正了解IO模型的本质,而不是罗列topic,或者硬性记忆API,因为编程语言很多,而解决方案的思想是统一的。这也是我们学习应该注意的,更多的应该学其道,而不是学其术。
当前文章:网络编程 | 彻底搞懂网络 IO 模型
网站URL:http://www.mswzjz.com/qtweb/news2/171702.html
网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联