什么是netty--通俗易懂

一.Netty介绍

1.什么是netty

Netty 是由 JBOSS 提供的一个 Java 开源框架。Netty 提供异步的、基于事件驱动的网络应用程序框架,用以快速开发高性能、高可靠性的网络 IO 程序,是目前最流行的 NIO 框架,Netty 在互联网领域、大数据分布式计算领域、游戏行业、通信行业等获得了广泛的应用,知名的 Elasticsearch 、Dubbo 框架内部都采用了 Netty。

2.为什么要用netty

原生 NIO 存在问题:

1.NIO 的类库和 API 繁杂

2.需要熟悉 Java 多线程编程,因为 NIO 编程涉及到 Reactor 模式,必须对多线程和网络编程非常熟悉, 才能编写出高质量的 NIO 程序

3.开发工作量和难度都非常大。例如客户端面临断连重连、网络闪断、半包读写、失败缓存、网络拥塞和异常 流的处理等等处理起来难度会比较大。

4.JDK NIO 的 Bug:例如臭名昭著的 Epoll Bug,它会导致 Selector 空轮询,最终导致 CPU 100%。直到 JDK 1.7 版本该问题仍旧存在,没有被根本解决。

3.Netty的优点

Netty 对 JDK 自带的 NIO 的 API 进行了封装,解决了上述问题。

1.设计优雅:适用于各种传输类型的统一 API 阻塞和非阻塞 Socket;基于灵活且可扩展的事件模型,可以清晰地分离关注点;高度可定制的线程模型 - 单线程,一个或多个线程池.

2.使用方便:详细记录的 Javadoc,用户指南和示例;没有其他依赖项,JDK 5(Netty 3.x)或 6(Netty 4.x)就足够了。

3.高性能、吞吐量更高:延迟更低;减少资源消耗;最小化不必要的内存复制。

4.安全:完整的 SSL/TLS 和 StartTLS 支持。

5.社区活跃、不断更新:社区活跃,版本迭代周期短,发现的 Bug 可以被及时修复,同时更多的新功能会被加入

二.Reactor三种线程模型

1.现有的三种线程模型

不同的线程模式,对程序的性能有很大影响,目前存在的线程模型有:

①.传统阻塞 I/O 服务模型

②.Reactor 模式

Reactor 模式又有 3 种典型的实现

单 Reactor 单线程;

单 Reactor 多线程;

主从 Reactor 多线程

Netty 的线程模型是主要是基于主从 Reactor 多线程模型改成了主从 Reactor 多线程模型有多个 Reactor模式

2.传统阻塞 I/O 服务模型介绍

特点:

采用阻塞IO模式获取输入的数据

每个连接都需要创建单独的线程完成数据的输入,业务处理和数据的返回

缺点:

当并发数很大,就会创建大量的线程,占用很大系统资源,在线程开销和上下文切换上降低处理性能

当连接创建后,如果当前线程暂时没有数据可读,该线程会阻塞在read 操作,造成线程资源的浪费。

img

黄色的框表示对象, 蓝色的框表示线程 白色的框表示方法(API)

3. Reactor 模式

针对传统阻塞 I/O 服务模型的 2 个缺点,解决方案:

I/O 复用模型:多个连接共用一个阻塞对象,应用程序只需要在一个阻塞对象上等待,无需阻塞等待所有连接。当某个连接有新的数据可以处理时,操作系统通知应用程序,线程从阻塞状态返回,开始进行业务处理。

Reactor 对应的叫法: 1. 反应器模式 2. 分发者模式(Dispatcher) 3. 通知者模式(notifier)

基于线程池复用线程资源模式:不必再为每个连接创建线程,将连接完成后的业务处理任务分配给线程进行处理,一个线程可以处理多个连接的业务。

I/O 复用结合线程池,就是 Reactor 模式基本设计思想

img

Reactor 模式,通过一个或多个输入同时传递给服务处理器的模式,(基于事件驱动)

服务器端程序处理传入的多个请求,并将它们同步分派到相应的处理线程, 因此Reactor模式也叫 Dispatcher模式

Reactor 模式使用IO复用监听事件, 收到事件后,分发给某个线程(进程), 这点就是网络服务器高并发处理关键

4.单 Reactor 单线程

1.工作原理:

①Select 是前面 I/O 复用模型介绍的标准网络编程 API,可以实现应用程序通过一个阻塞对象监听多路连接请求

②Reactor 对象通过 Select 监控客户端请求事件,收到事件后通过 Dispatch 进行分发

③如果是建立连接请求事件,则由 Acceptor 通过 Accept 处理连接请求,然后创建一个 Handler 对象处理连接完成后的后续业务处理

④如果不是建立连接事件,则 Reactor 会分发调用连接对应的 Handler 来响应

⑤Handler 会完成 Read→业务处理→Send 的完整业务流程

2.优点:

模型简单,没有多线程、进程通信、竞争的问题,全部都在一个线程中完成

3.缺点:

①性能问题,只有一个线程,无法完全发挥多核 CPU 的性能。

②可靠性问题,线程意外终止,或者进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障

③服务器端用一个线程通过多路复用搞定所有的 IO 操作(包括连接,读、写等),编码简单,清晰明了,但是如果客户端连接数量较多时,当对应多个读时,还是会出现阻塞现象,当这种情况发生时将无法支撑高并发的场景。

4.应用场景:

客户端的数量有限,业务处理非常快速(比如 Redis在业务处理的时间复杂度 O(1) 的情况)

img

5.单Reactor多线程

1.工作原理:

①Reactor 对象通过select 监控客户端请求事件, 收到事件后,通过dispatch进行分发

②如果是建立连接请求, 则由Acceptor 通过accept 处理连接请求, 然后创建一个Handler对象处理完成连接后的各种事件

③如果不是连接请求,则由Reactor分发调用连接对应的handler 来处理

④handler 只负责响应事件,不做具体的业务处理, 通过read 读取数据后,会分发给后面的worker线程池的某个线程处理业务。

⑤worker 线程池会分配独立线程完成真正的业务,并将结果返回给handler,handler收到响应后,通过send 将结果返回给client.

2.优点:

可以充分的利用多核cpu 的处理能力

3.缺点:

多线程数据共享和访问比较复杂,Reactor处理所有的事件的监听和响应,在单线程运行时,在高并发场景容易出现性能瓶颈.

img

6.主从 Reactor 多线程

1.工作原理:

①Reactor主线程 MainReactor 对象通过select 监听连接事件, 收到事件后,通过Acceptor 处理连接事件

②当 Acceptor 处理连接事件后,MainReactor 将连接分配给SubReactor

③subReactor 将连接加入到连接队列进行监听,并创建handler进行各种事件处理

④当有新事件发生时, subreactor 就会调用对应的handler处理

⑤handler 通过read 读取数据,分发给后面的worker 线程处理

⑥worker 线程池分配独立的worker 线程进行业务处理,并返回结果

⑦handler 收到响应的结果后,再通过send 将结果返回给client

⑧Reactor 主线程可以对应多个Reactor 子线程, 即MainRecator 可以关联多个SubReactor

img

三.Netty线程模型

1.工作原理

Netty抽象出两组线程池 BossGroup 专门负责接收客户端的连接, WorkerGroup 专门负责网络的读写

BossGroup 和 WorkerGroup 类型都是 NioEventLoopGroup

NioEventLoopGroup 相当于一个事件循环组, 这个组中含有多个事件循环 ,每一个事件循环是 NioEventLoop

NioEventLoop 表示一个不断循环的执行处理任务的线程, 每个NioEventLoop 都有一个selector , 用于监听绑定在该通道上的socket的网络通讯

NioEventLoopGroup 可以有多个线程, 即可以含有多个NioEventLoop

每个Boss NioEventLoop 循环执行的步骤有3步

轮询accept 事件

处理accept 事件 , 与client端建立连接 , 生成NioScocketChannel , 并将其注册到某个worker NIOEventLoop 上的 selector 上

处理任务队列的任务 , 即 runAllTasks

每个 Worker NIOEventLoop 循环执行的步骤

轮询read, write 事件

处理i/o事件, 即read , write 事件,在对应NioScocketChannel 处理

处理任务队列的任务 , 即 runAllTasks

每个Worker NIOEventLoop 处理业务时,会使用pipeline(管道), pipeline 中包含了boss group上NioEventLoop注册到worker 的selector 的channel , 即通过pipeline 可以获取到对应通道, 管道中维护了很多的处理器

img

四.Netty入门

1.引入java包

(JDK 5(Netty 3.x)或 6(Netty 4.x))
<dependency>
 <groupId>io.netty</groupId>
 <artifactId>netty-all</artifactId>
 <version>4.1.20.Final</version>
</dependency>

2.hello world 编写

入门的编写一共需要4个类

netty server

netty server handler

netty client

netty client handler

2.1.netty server 端编写

package com.zpb.netty.netty.helloWorld;
​
import io.netty.bootstrap.ServerBootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoop;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioServerSocketChannel;
import io.netty.channel.socket.nio.NioSocketChannel;
​
/**
 * @dec : netty入门
 * @Date: 2019/11/24
 * @Auther: pengbo.zhao
 * @version: 1.0
 * @demand:
 *
 *    {@link #main(String[] args)}
 *
 */
public class NettyServer {
​
 public static void main(String[] args) throws  Exception{
​
 //1.创建BossGroup 和 WorkerGroup
 //1.1 创建2个线程组
 //bossGroup只处理连接请求
 //workerGroup 处理客户端的业务逻辑
 //2个都是无限循环
 EventLoopGroup bossGroup = new NioEventLoopGroup();
 EventLoopGroup workerGroup = new NioEventLoopGroup();
​
 //2.创建服务端的启动对象,可以为服务端启动配置一些服务参数
 ServerBootstrap bootStrap = new ServerBootstrap();
​
 //2.1使用链式编程来配置服务参数
 bootStrap.group(bossGroup,workerGroup)                          //设置2个线程组
 .channel(NioServerSocketChannel.class)                 //使用NioServerSocketChannel作为服务器的通道
 .option(ChannelOption.SO_BACKLOG,128)            //设置线程等待的连接个数
 .childOption(ChannelOption.SO_KEEPALIVE,Boolean.TRUE) //设置保持活动连接状态
 .childHandler(new ChannelInitializer<SocketChannel>() {
 //给PipeLine设置处理器
 @Override
 protected void initChannel(SocketChannel socketChannel) throws Exception {
 //通过socketChannel得到pipeLine,然后向pipeLine中添加处理的handle
 socketChannel.pipeline().addLast(new NettyServerHandle());
 }
 }); //给workerGroup 的EventLoop对应的管道设置处理器(可以自定义/也可使用netty的)
 System.err.println("server is ready......");
​
 //启动服务器,并绑定1个端口且同步生成一个ChannelFuture 对象
 ChannelFuture channelFuture = bootStrap.bind(8888).sync();
​
 //对关闭通道进行监听(netty异步模型)
 //当通道进行关闭时,才会触发这个关闭动作
 channelFuture.channel().closeFuture().sync();
​
 }
}

2.2.netty server handler编写

package com.zpb.netty.netty.helloWorld;
​
import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.Channel;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.ChannelInboundHandlerAdapter;
import io.netty.channel.ChannelPipeline;
import io.netty.util.CharsetUtil;
​
/**
 * @dec :
 * @Date: 2019/11/24
 * @Auther: pengbo.zhao
 * @version: 1.0
 * @demand:
 */
public class NettyServerHandle extends ChannelInboundHandlerAdapter {
 /**
 * 读取数据
 *
 * @param: 1.ChannelHandlerContext ctx:上下文对象, 含有 管道 pipeline , 通道 channel, 地址
 * @param: 2\. Object msg: 就是客户端发送的数据 默认 Object
 */
 @Override
 public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
 System.err.println("服务器读取线程 " + Thread.currentThread().getName());
 System.out.println("server ctx =" + ctx);
 System.out.println("看看 channel 和 pipeline 的关系");
​
 Channel channel = ctx.channel();
 ChannelPipeline pipeline = ctx.pipeline(); //本质是一个双向链接, 出站入站
​
 //将 msg 转成一个 ByteBuf,ByteBuf 是 Netty 提供的,不是 NIO 的 ByteBuffer.
 ByteBuf buf = (ByteBuf) msg;
 System.out.println("客户端发送消息是:" + buf.toString(CharsetUtil.UTF_8));
 System.out.println("客户端地址:" + channel.remoteAddress());
 }
​
 /**
 * 读取数据完成后
 *
 * @param:
 * @return:
 * @auther:
 * @date:
 */
 @Override
 public void channelReadComplete(ChannelHandlerContext ctx) throws Exception {
 //writeAndFlush 是 write + flush
 //将数据写入到缓存,并刷新
 //一般讲,我们对这个发送的数据进行编码
 ctx.writeAndFlush(Unpooled.copiedBuffer("hello, 客户端~(>^ω^<)喵", CharsetUtil.UTF_8));
 }
​
 //处理异常, 一般是需要关闭通道
 @Override
 public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
 ctx.close();
 }
}

2.3.netty client端编写

package com.zpb.netty.netty.helloWorld;
​
import io.netty.bootstrap.Bootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioSocketChannel;
​
​
/**
 * @dec :
 * @Date: 2019/11/24
 * @Auther: pengbo.zhao
 * @version: 1.0
 * @demand:
 */
public class NettyClient {
​
 public static void main(String[] args) throws Exception {
​
 //1.客户端定义一个循环事件组
 EventLoopGroup group = new NioEventLoopGroup();
​
 try {
​
 //2.创建客户端启动对象
 Bootstrap bootstrap = new Bootstrap();
 bootstrap.group(group)                      //设置线程组
 .channel(NioSocketChannel.class)   //设置客户端通道实现类
 .handler(new ChannelInitializer<SocketChannel>() {
 @Override
 protected void initChannel(SocketChannel socketChannel) throws Exception {
 socketChannel.pipeline().addLast(new NettyClientHandle());
 }
 });
 System.err.println("client is ready......");
​
 //3.启动客户端去连接服务端
 ChannelFuture channelFuture = bootstrap.connect("127.0.0.1", 8888).sync();
​
 //4.设置通道关闭监听(当监听到通道关闭时,关闭client)
 channelFuture.channel().closeFuture().sync();
 } finally {
 group.shutdownGracefully();
 }
 }
}

2.4.netty client handler端编写

package com.zpb.netty.netty.helloWorld;
​
import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.ChannelInboundHandlerAdapter;
import io.netty.util.CharsetUtil;
​
/**
 * @dec :
 * @Date: 2019/11/24
 * @Auther: pengbo.zhao
 * @version: 1.0
 * @demand:
 */
public class NettyClientHandle extends ChannelInboundHandlerAdapter{
​
 //如果client 端服务启动完成后
 @Override
 public void channelActive(ChannelHandlerContext ctx) throws Exception {
​
 System.err.println("client "+ctx);
 ctx.writeAndFlush(Unpooled.copiedBuffer("hello,netty server...",CharsetUtil.UTF_8));
 }
​
 //当通道有读事件时
 @Override
 public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
​
 ByteBuf byteBuf = (ByteBuf) msg;
 System.err.println("服务器端回复消息:"+byteBuf.toString(CharsetUtil.UTF_8));
 System.err.println("服务器端地址是:"+ctx.channel().remoteAddress());
 }
​
 //当通道有异常时
​
 @Override
 public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
 cause.printStackTrace();
 ctx.close();
 }
}

五.Netty三种任务队列的使用

当我们在处理的handle中如果出现了阻塞的情况,或者处理业务逻辑比较耗时,我们不能让程序处于阻塞,

当有客户端请求时,我们想让程序定时的去执行业务逻辑,

当需要对一些用户需要进行推送活动时,根据用户标识,找到对应的 Channel 引用,向该用户推送特定消息时

可以采用以下三种任务队列:

1.提交到execute(Runnable command)中时

ctx.channel().eventLoop().execute(new Runnable() { })
​
业务逻辑交给线程去处理,线程不会阻塞在这里,而是直接返回,直到有数据才返回给客户端,如果有多个线程runnable需要处理,那么只能等上一个处理完才会处理下一个,(假如第1个任务需要10S,第2个需要20s,执行完共需30S)

2.提交到 scheduledTaskQueue中

schedule(Runnable command, long delay, TimeUnit unit)
​
①Runnable command:执行业务逻辑处理的线程
​
② long delay:定时时长
​
③TimeUnit unit:定时类型
​
业务逻辑交给定时线程去处理。

3.通过传输的内容的标识

在解码客户端发送的内容中,读取到客户端的特殊标识,利用这个标识来进行推送消息处理,这个在粘包、拆包中进行说明

推荐阅读更多精彩内容