百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

网络编程 | 彻底搞懂网络 IO 模型

nanshan 2025-05-23 18:54 7 浏览 0 评论

令人头大的 IO

说起网络 IO 相关的开发,很多人都头大,包括我自己,写了几年的代码,对 IO 相关的术语说起来也是头头是道,什么 NIO、IO 多路复用等术语一个接一个。但是也就自己知道,这些概念一团乱,网上各种各样的文章也没一个权威易懂的,并且很多文章说起 IO 就扯上 Java 的 NIO 包,专注的大多是如何使用(术)而不是 IO 的本质(道)所以写这篇文章来从 socket 编程的痛点,转到 NIO 的解决方案,再到多路复用器的发展来一起梳理网络IO 模型。


从 Socket 编程说起

做业务开发的同学,常常面对的是 Spring Boot 这些框架帮我们搭建好的 Server 框架,但是如果往下去看框架帮我们实现的代码最终会看到 Socket 相关的源码, Socket 相关的代码实际上就是 TCP 网络编程。

目前主流的 HTTP 框架,比如 Golang 原生的 HTTP net/http,都是基于 TCP 编程实现的,按照 HTTP 协议约定,解析 TCP 传输流过来的数据,最终将传输数据转换为一个 Http Request Model 交给我们业务的 Handler 逻辑处理。

例如,Golang 的 原生 Http 框架 net/http 为例就有这么些代码片段:

l, err = sl.listenTCP(ctx, la) // 监听连接请求

rw, e := l.Accept() // 创建连接

go c.serve(connCtx) // 调用新的协程处理请求逻辑

w, err := c.readRequest(ctx) // 读取请求

serverHandler{c.server}.ServeHTTP(w, w.req) // 执行业务逻辑,并返回结果


Socket 编程的过程

如上图所示:

  1. 服务端需要先绑定(Bind)并监听(Listen)一个端口,这个时候会有一个欢迎套接字(welcomeSocket)
  2. welcomeSocket 调用 Accept 方法,接受客户端的请求,如果没有请求那么会阻塞住
  3. 客户端请求指定端口,welcomeSocket 从阻塞中返回一个已连接套接字(connectionSocket)用于专门处理这个客户端请求
  4. 客户端往请求套接字写入数据(Stream)
  5. 服务端从已连接套接字可以持续读到数据,TCP 底层保证数据的顺序性
  6. 服务端可以往已连接套接字写入数据,客户端从请求的套接字中可以读到数据
  7. 客户端关闭连接,服务端也可以主动关闭连接

如果用代码手写 Socket 服务端,用 Java 实现是这样的:

public class Server {

    public static void main(String[] args) throws Exception {

        String clientSentence;

        String capitalizedSentence;

        ServerSocket welcomeSocket = new ServerSocket(6789);

        while (true) {

            Socket connectionSocket = welcomeSocket.accept(); // 当没请求会阻塞住

            System.out.println("connection build succ!");

            BufferedReader inFromClient = new BufferedReader(new InputStreamReader(connectionSocket.getInputStream()));

            DataOutputStream outToClient = new DataOutputStream(connectionSocket.getOutputStream());

            clientSentence = inFromClient.readLine(); // 连接上但是客户端还没写入数据会阻塞住

            System.out.println("read succ!");

            capitalizedSentence = clientSentence.toUpperCase() + '\n';

            outToClient.writeBytes(capitalizedSentence);

            System.out.println("write succ!");

        }

    }
}

我们可以用 Telnet 连接上去尝试下,但是很快我们会发现两个问题:

  • Accept 是阻塞的,如果一个客户端网络比较差,三次握手时间长整个服务端就卡住了
  • Read 是阻塞的,如果客户端连接上了,但是迟迟不发数据(比如我们 telnet 上,但是不写)整个服务端就卡住了

优化思路:多线程处理,避免 read 阻塞

对于 Read 是阻塞的问题,我们开线程来处理,这样当一个请求连接上迟迟不写数据也不会影响到其他连接的处理了。当然这里得考虑到量级,如果量级太大的话需要改成线程池避免线程过多。

public class Server {
    public static void main(String[] args) throws Exception {

        ServerSocket welcomeSocket = new ServerSocket(6789);
        while (true) {
            Socket connectionSocket = welcomeSocket.accept(); // 当没请求会阻塞住
            System.out.println("connection build succ!");

            new Thread(new Runnable() {
                @Override
                public void run() {
                    try {
                        String clientSentence;
                        String capitalizedSentence;

                        BufferedReader inFromClient = new BufferedReader(new InputStreamReader(connectionSocket.getInputStream()));
                        DataOutputStream outToClient = new DataOutputStream(connectionSocket.getOutputStream());

                        clientSentence = inFromClient.readLine(); // 连接上但是客户端还没写入数据会阻塞住
                        System.out.println("read succ!");

                        capitalizedSentence = clientSentence.toUpperCase() + '\n';
                        outToClient.writeBytes(capitalizedSentence);
                        System.out.println("write succ!");
                    }catch (Exception e) {
                        e.printStackTrace();
                    }
                }
            }).start();
        }
    }
}

这个时候,我们用 telnet 客户端连接已经感受不到服务端的瓶颈了。但是从我们上的分析来看,Accept 还是有瓶颈的,就是同时只能对一个请求做连接,而且即使是线程池的模式,如果连接(特别是空闲的)很多,最终也会出现阻塞的情况

如果你的业务场景是连接数不多,同时又需要频繁的交互数据,那么用 BIO 模式无论是对时延还是资源使用都有不错的效果(相当于 VIP 1v1 服务)。

但是,我们的服务端代码通常是面对海量的连接的,且很多客户端连接上,并不会马上发送请求,例如聊天室应用,很久用户才会发送1条消息。这个时候如果还是这种 1v1 模式,那么有 100w 个用户,就需要维护 100个连接,显然是不合适,这太浪费资源了,而且很低效,大部分线程都是在 Block 等待用户数据。

所以,这个时候 NIO(异步io)横空出世了。网上有一张比较好的对比图,可以很好地解释差异:

我们上文说的就是 阻塞I/O ,而现在要讲的是非阻塞I/O。图上主要阐述的是 `read()` 方法的过程,主要包括两部分:

  1. 第一阶段:等待TCP RecvBuffer 数据就绪,这个在传统的BIO里如果数据没就绪,就会阻塞等待,不消耗CPU
  2. 第二阶段:将数据从内核拷贝到用户空间,消耗CPU但是速度非常快,属于 memory copy


非阻塞I/O

所以对于 非阻塞I/O 来说,主要要优化的是调用 `read()` 方法数据还未就绪导致阻塞问题。这个解决方法很简单,大部分编程语言都有提供 nio 的方法,只要数据还没准备就绪不要block,直接返回给调用者就可以了。这样我们这个线程就可以接着去处理其他连接的数据,这样就不用每个连接单独只有一个线程来服务了。


I/O 多路复用

对于非阻塞 I/O 模式,开发者仍然需要不断去轮询事件状态,如果请求量级很大, 这样的机制同样还是会浪费很多资源,同时开发难度较高。其实想一想,我们作为开发者的诉求无非就是监听某些事件,比如完成链接(accept完成)、数据就绪(可read)等。关于事件的监听其实也无关乎编程语言,在操作系统层面就可以做而且可以做的更高效。操作系统上提供了一系列系统调用,比如 select/poll/epool,这些系统调用后会阻塞,当有对应的事件到来触发我们注册到事件上的Handler逻辑。

所以简单来说,就是上文说的 非阻塞I/O 用户自行写轮询查看状态的逻辑被收敛到操作系统这里提供的 I/O 复用器了,整个程序执行起来的逻辑大概变成这样。

 interface ChannelHandler{
      void channelReadable(Channel channel);
      void channelWritable(Channel channel);
   }
   class Channel{
     Socket socket;
     Event event;//读,写或者连接
   }

   //IO线程主循环:
   class IoThread extends Thread{
   public void run(){
   Channel channel;
   while(channel=Selector.select()){//选择就绪的事件和对应的连接
      if(channel.event==accept){
         registerNewChannelHandler(channel);//如果是新连接,则注册一个新的读写处理器
      }
      if(channel.event==write){
         getChannelHandler(channel).channelWritable(channel);//如果可以写,则执行写事件
      }
      if(channel.event==read){
          getChannelHandler(channel).channelReadable(channel);//如果可以读,则执行读事件
      }
    }
   }
   Map<Channel,ChannelHandler> handlerMap;//所有channel的对应事件处理器
  }


Reactor 模型

目前大多高性能的网络IO框架主要都是基于IO多路复用 + 池化技术的的 Reactor 模型,Reactor 其实只是一个网络模型概念并不是具体的某项具体技术。常见的主要有三种,单Reactor + 单进程/单线程、单Reactor + 多线程、多Reactor + 多进程/多线程

单Reactor + 单进程/单线程

多路复用器 Select 返回结果后,有个 Dispatch 用于分发结果事件。如果是连接建立事件,Acceptor接受连接并创建对应的Handler来处理后续事件。如果不是连接事件,直接调用对应的 Handler,Handler 完成数据读取 read 、process、send 的完整业务流程。

这种模式优点是简单、不用考虑进程间通信、线程安全、资源竞争等问题,但是也有自身局限性,也就是无法充分利用多核资源,适用于业务场景处理很快的场景,比如 Redis 就是用这种方案。


单Reactor + 多线程

相比于上一种方案,不同的是 Handler 只负责数据读取不负责处理事件,而是有一个单独的 Worker 线程池来做具体的事情之所以 processor 要隔离单独的线程池是因为 `read` 方法本身是需要消耗 cpu 资源的,通常不适合大于 cpu 核数,而用户自定义的 processor 逻辑里可能有各种网络请求,比如 RPC 请求,如果隔离开来,那么 processor 可以设置更大的线程数,提升吞吐量

这种模式已经可以比较充分利用到多核资源了,但是问题在于主线程承担了所有的事件监听和响应。瞬间高并发时可能成为瓶颈,这就需要多 Reactor 的方案了


多Reactor + 多进程/多线程

处理步骤:

  1. 父进程中 mainReactor 对象通过 select 监控连接建立事件,收到事件后通过 Acceptor接收,将新的连接分配给某个子进程
  2. 子进程的 subReactor 将 mainReactor 分配的连接加入连接队列进行监听,并创建一个Handler 用于处理连接的各种事件。
  3. 当有新的事件发生时,subReactor 会调用连接对应的 Handler 来进行响应。
  4. Handler 完成 read→处理→send 的完整业务流程。

目前著名的开源系统 Nginx 采用的是多 Reactor 多进程,采用多 Reactor 多线程的实现有Memcache 和 Netty。不过需要注意的是 Nginx 中与上图中的方案稍有差异,具体表现在主进程中并没有mainReactor来建立连接,而是由子进程中的subReactor建立。


异步非阻塞 I/O

服务器实现模式为一个有效请求一个线程,客户端的I/O请求都是由OS先完成了再通知服务器应用去启动线程进行处理,AIO又称为NIO2.0,在JDK7才开始支持。但是由于 Linux 上 AIO 的底层实现并不好,所以目前没有被广泛使用。比如大名鼎鼎的Netty框架也是使用NIO而非AIO。


总结

这篇文章从 socket 编程出发,你了解到了怎么利用socket编写服务端代码,然后在 socket 编程时发现了痛点,一个在于 accept 建立连接会阻塞线程,另一个在于 read 数据时会阻塞,为了解决阻塞可能导致的低效问题,我们尝试了用多线程方法来初步解决。

但是在这之后,我们又看到面对海量连接时,BIO 力不从心的现象,所以引入了 NIO 模型。这里阐述了从 NIO 到 多路复用器的进步,相当于是操作系统帮我们做了海量连接事件的监听,这个模式也被称作 Reactor 模式。最后讲到了异步I/O,虽然理想很美好,但是底层基建并不完善,目前这种模式在生产中被使用还比较少。

我写这篇文章,并没有描述很多具体的API,因为我希望通过这个文章来帮助大家真正了解IO模型的本质,而不是罗列topic,或者硬性记忆API,因为编程语言很多,而解决方案的思想是统一的。这也是我们学习应该注意的,更多的应该学其道,而不是学其术。

相关推荐

服务器数据恢复—Raid5数据灾难不用愁,Raid5数据恢复原理了解下

Raid5数据恢复算法原理:分布式奇偶校验的独立磁盘结构(被称之为raid5)的数据恢复有一个“奇偶校验”的概念。可以简单的理解为二进制运算中的“异或运算”,通常使用的标识是xor。运算规则:若二者值...

服务器数据恢复—多次异常断电导致服务器raid不可用的数据恢复

服务器数据恢复环境&故障:由于机房多次断电导致一台服务器中raid阵列信息丢失。该阵列中存放的是文档,上层安装的是Windowsserver操作系统,没有配置ups。因为服务器异常断电重启后,rai...

服务器数据恢复-V7000存储更换磁盘数据同步失败的数据恢复案例

服务器数据恢复环境:P740+AIX+Sybase+V7000存储,存储阵列柜上共12块SAS机械硬盘(其中一块为热备盘)。服务器故障:存储阵列柜中有磁盘出现故障,工作人员发现后更换磁盘,新更换的磁盘...

「服务器数据恢复」重装系统导致XFS文件系统分区丢失的数据恢复

服务器数据恢复环境:DellPowerVault系列磁盘柜;用RAID卡创建的一组RAID5;分配一个LUN。服务器故障:在Linux系统层面对LUN进行分区,划分sdc1和sdc2两个分区。将sd...

服务器数据恢复-ESXi虚拟机被误删的数据恢复案例

服务器数据恢复环境:一台服务器安装的ESXi虚拟化系统,该虚拟化系统连接了多个LUN,其中一个LUN上运行了数台虚拟机,虚拟机安装WindowsServer操作系统。服务器故障&分析:管理员因误操作...

「服务器数据恢复」Raid5阵列两块硬盘亮黄灯掉线的数据恢复案例

服务器数据恢复环境:HPStorageWorks某型号存储;虚拟化平台为vmwareexsi;10块磁盘组成raid5(有1块热备盘)。服务器故障:raid5阵列中两块硬盘指示灯变黄掉线,无法读取...

服务器数据恢复—基于oracle数据库的SAP数据恢复案例

服务器存储数据恢复环境:某品牌服务器存储中有一组由6块SAS硬盘组建的RAID5阵列,其中有1块硬盘作为热备盘使用。上层划分若干lun,存放Oracle数据库数据。服务器存储故障&分析:该RAID5阵...

「服务器虚拟化数据恢复」Xen Server环境下数据库数据恢复案例

服务器虚拟化数据恢复环境:Dell某型号服务器;数块STAT硬盘通过raid卡组建的RAID10;XenServer服务器虚拟化系统;故障虚拟机操作系统:WindowsServer,部署Web服务...

服务器数据恢复—RAID故障导致oracle无法启动的数据恢复案例

服务器数据恢复环境:某品牌服务器中有一组由4块SAS磁盘做的RAID5磁盘阵列。该服务器操作系统为windowsserver,运行了一个单节点Oracle,数据存储为文件系统,无归档。该oracle...

服务器数据恢复—服务器磁盘阵列常见故障表现&amp;解决方案

RAID(磁盘阵列)是一种将多块物理硬盘整合成一个虚拟存储的技术,raid模块相当于一个存储管理的中间层,上层接收并执行操作系统及文件系统的数据读写指令,下层管理数据在各个物理硬盘上的存储及读写。相对...

「服务器数据恢复」IBM某型号服务器RAID5磁盘阵列数据恢复案例

服务器数据恢复环境:IBM某型号服务器;5块SAS硬盘组成RAID5磁盘阵列;存储划分为1个LUN和3个分区:第一个分区存放windowsserver系统,第二个分区存放SQLServer数据库,...

服务器数据恢复—Zfs文件系统下误删除文件如何恢复数据?

服务器故障:一台zfs文件系统服务器,管理员误操作删除服务器上的数据。服务器数据恢复过程:1、将故障服务器所有磁盘编号后取出,硬件工程师检测所有硬盘后没有发现有磁盘存在硬件故障。以只读方式将全部磁盘做...

服务器数据恢复—Linux+raid5服务器数据恢复案例

服务器数据恢复环境:某品牌linux操作系统服务器,服务器中有4块SAS接口硬盘组建一组raid5阵列。服务器中存放的数据有数据库、办公文档、代码文件等。服务器故障&检测:服务器在运行过程中突然瘫痪,...

服务器数据恢复—Sql Server数据库数据恢复案例

服务器数据恢复环境:一台安装windowsserver操作系统的服务器。一组由8块硬盘组建的RAID5,划分LUN供这台服务器使用。在windows服务器内装有SqlServer数据库。存储空间LU...

服务器数据恢复—阿里云ECS网站服务器数据恢复案例

云服务器数据恢复环境:阿里云ECS网站服务器,linux操作系统+mysql数据库。云服务器故障:在执行数据库版本更新测试时,在生产库误执行了本来应该在测试库执行的sql脚本,导致生产库部分表被tru...

取消回复欢迎 发表评论: