BIO、NIO、AIO系列二:Netty
一、概述
Netty是一个Java的开源框架。提供异步的、事件驱动的网络应用程序框架和工具,用以快速开发高性能、高可靠性的网络服务器和客户端程序。
Netty是一个NIO客户端,服务端框架。允许快速简单的开发网络应用程序。例如:服务端和客户端之间的协议,它简化了网络编程规范。
二、NIO开发的问题
1、NIO类库和API复杂,使用麻烦。
2、需要具备Java多线程编程能力(涉及到Reactor模式)。
3、客户端断线重连、网络不稳定、半包读写、失败缓存、网络阻塞和异常码流等问题处理难度非常大
4、存在部分BUG
NIO进行服务器开发的步骤很复杂有以下步骤:
1、创建ServerSocketChannel,配置为非阻塞模式;
2、绑定监听,配置TCP参数;
3、创建一个独立的IO线程,用于轮询多路复用器Selector;
4、创建Selector,将之前创建的ServerSocketChannel注册到Selector上,监听Accept事件;
5、启动IO线程,在循环中执行Select.select()方法,轮询就绪的Channel;
6、当轮询到处于就绪状态的Channel时,需要对其进行判断,如果是OP_ACCEPT状态,说明有新的客户端接入,则调用ServerSocketChannel.accept()方法接受新的客户端;
7、设置新接入的客户端链路SocketChannel为非阻塞模式,配置TCP参数;
8、将SocketChannel注册到Selector上,监听READ事件;
9、如果轮询的Channel为OP_READ,则说明SocketChannel中有新的准备就绪的数据包需要读取,则构造ByteBuffer对象,读取数据包;
10、如果轮询的Channel为OP_WRITE,则说明还有数据没有发送完成,需要继续发送。
三、Netty的优点
1、API使用简单,开发门槛低;
2、功能强大,预置了多种编解码功能,支持多种主流协议;
3、定制功能强,可以通过ChannelHandler对通信框架进行灵活的扩展;
4、性能高,通过与其他业界主流的NIO框架对比,Netty综合性能最优;
5、成熟、稳定,Netty修复了已经发现的NIO所有BUG;
6、社区活跃;
7、经历了很多商用项目的考验。
四、Netty使用demo示例
服务端TimeServer.java
package com.studyio.netty; import io.netty.bootstrap.ServerBootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioServerSocketChannel; /**
*
* @author lgs
* 服务端
*/
public class TimeServer { public static void main(String[] args) throws Exception {
int port=8080; //服务端默认端口
new TimeServer().bind(port);
} public void bind(int port) throws Exception{
//1用于服务端接受客户端的连接 线程池里面只有一个线程
EventLoopGroup acceptorGroup = new NioEventLoopGroup(1);
//2用于进行SocketChannel的网络读写 线程池有多个线程
EventLoopGroup workerGroup = new NioEventLoopGroup();
try {
//Netty用于启动NIO服务器的辅助启动类
ServerBootstrap sb = new ServerBootstrap();
//将两个NIO线程组传入辅助启动类中
sb.group(acceptorGroup, workerGroup)
//设置创建的Channel为NioServerSocketChannel类型
.channel(NioServerSocketChannel.class)
//配置NioServerSocketChannel的TCP参数
.option(ChannelOption.SO_BACKLOG, 1024)
//设置绑定IO事件的处理类
.childHandler(new ChannelInitializer<SocketChannel>() {
//创建NIOSocketChannel成功后,在进行初始化时,将它的ChannelHandler设置到ChannelPipeline中,用于处理网络IO事件
@Override
protected void initChannel(SocketChannel arg0) throws Exception { arg0.pipeline().addLast(new TimeServerHandler());
}
});
//绑定端口,同步等待成功(sync():同步阻塞方法,等待bind操作完成才继续)
//ChannelFuture主要用于异步操作的通知回调
ChannelFuture cf = sb.bind(port).sync();
System.out.println("服务端启动在8080端口。");
//等待服务端监听端口关闭
cf.channel().closeFuture().sync();
} finally {
//优雅退出,释放线程池资源
acceptorGroup.shutdownGracefully();
workerGroup.shutdownGracefully();
}
}
}
服务端用于对网络资源进行读写操作TimeServerHandler.java
package com.studyio.netty; import java.util.Date; import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelHandlerAdapter;
import io.netty.channel.ChannelHandlerContext; /**
*
* @author lgs
* @readme 服务端用于对网络资源进行读写操作,通常我们只需要关注channelRead和exceptionCaught方法。
*
*/
public class TimeServerHandler extends ChannelHandlerAdapter { @Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ByteBuf buf = (ByteBuf) msg;
//buf.readableBytes():获取缓冲区中可读的字节数;
//根据可读字节数创建数组
byte[] req = new byte[buf.readableBytes()];
buf.readBytes(req);
String body = new String(req, "UTF-8");
System.out.println("The time server(Thread:"+Thread.currentThread()+") receive order : "+body);
String currentTime = "QUERY TIME ORDER".equalsIgnoreCase(body) ? new Date(System.currentTimeMillis()).toString() : "BAD ORDER"; ByteBuf resp = Unpooled.copiedBuffer(currentTime.getBytes());
//将待发送的消息放到发送缓存数组中
ctx.writeAndFlush(resp);
}
}
客户端TimeClient.java
package com.studyio.netty; import io.netty.bootstrap.Bootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioSocketChannel; /**
*
* @author lgs
* 客户端
*/
public class TimeClient {
public static void main(String[] args) throws Exception {
int port=8080; //服务端默认端口
new TimeClient().connect(port, "127.0.0.1");
}
public void connect(int port, String host) throws Exception{
//配置客户端NIO线程组
EventLoopGroup group = new NioEventLoopGroup();
try {
Bootstrap bs = new Bootstrap();
bs.group(group)
.channel(NioSocketChannel.class)
.option(ChannelOption.TCP_NODELAY, true)
.handler(new ChannelInitializer<SocketChannel>() {
@Override
//创建NIOSocketChannel成功后,在进行初始化时,将它的ChannelHandler设置到ChannelPipeline中,用于处理网络IO事件
protected void initChannel(SocketChannel arg0) throws Exception {
arg0.pipeline().addLast(new TimeClientHandler());
}
});
//发起异步连接操作
ChannelFuture cf = bs.connect(host, port).sync();
//等待客户端链路关闭
cf.channel().closeFuture().sync();
} finally {
//优雅退出,释放NIO线程组
group.shutdownGracefully();
}
}
}
客户端向服务端发送数据和接收服务端数据TimeClientHandler.java
package com.studyio.netty; import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelHandlerAdapter;
import io.netty.channel.ChannelHandlerContext; /**
*
* @author lgs
* 客户端向服务端发送数据和接收服务端数据
*/
public class TimeClientHandler extends ChannelHandlerAdapter { @Override
//向服务器发送指令
public void channelActive(ChannelHandlerContext ctx) throws Exception {
for (int i = 0; i < 5; i++) {
byte[] req = "QUERY TIME ORDER".getBytes();
ByteBuf firstMessage = Unpooled.buffer(req.length);
firstMessage.writeBytes(req);
ctx.writeAndFlush(firstMessage);
}
} @Override
//接收服务器的响应
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ByteBuf buf = (ByteBuf) msg;
//buf.readableBytes():获取缓冲区中可读的字节数;
//根据可读字节数创建数组
byte[] req = new byte[buf.readableBytes()];
buf.readBytes(req);
String body = new String(req, "UTF-8");
System.out.println("Now is : "+body);
} @Override
//异常处理
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
//释放资源
ctx.close();
} }
五、粘包/拆包问题
TCP粘包拆包问题示例图:
说明:
假设客户端分别发送了两个数据包D1和D2给服务端,由于服务端一次读取到的字节数是不确定的,可能存在以下4种情况。
1、服务端分两次读取到了两个独立的数据包,分别是D1和D2,没有粘包和拆包;
2、服务端一次接收到了两个数据包,D1和D2粘合在一起,被称为TCP粘包;
3、服务端分两次读取到了两个数据包,第一次读取到了完整的D1包和D2包的部分内容,第二次读取到了D2包的剩余部分内容,这被称为TCP拆包;
4、服务端分两次读取到了两个数据包,第一次读取到了D1包的部分内容D1_1,第二次读取到了D1包的剩余内容D1_1和D2包的完整内容;
如果此时服务器TCP接收滑窗非常小,而数据包D1和D2比较大,很有可能发生第五种情况,既服务端分多次才能将D1和D2包接收完全,期间发生多次拆包;
总结:
粘包:客户端发送的数据D2,D1可能被合并成一个D2D1发送到服务端
拆包:客户端发送的数据D2,D1可能被拆分成D2_1,D2_2D1或者D2D1_1,D1_2发送到服务端
粘包拆包问题的解决策略
由于底层的TCP无法理解上层的业务数据,所以在底层是无法保证数据包不被拆分和重组的,这个问题只能通过上层的应用协议栈设计来解决,根据业界的主流协议的解决方案可归纳如下:
1、消息定长,例如每个报文的大小为固定长度200字节,如果不够,空位补空格;
FixedLengthFrameDecoder
是固定长度解码器,能够按照指定的长度对消息进行自动解码,开发者不需要考虑TCP的粘包/拆包问题。
服务端:
TimeServer.java
package com.studyio.nettyFixedLength; import io.netty.bootstrap.ServerBootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioServerSocketChannel;
import io.netty.handler.codec.FixedLengthFrameDecoder;
import io.netty.handler.codec.string.StringDecoder; /**
*
* @author lgs
* 处理粘包/拆包问题-消息定长,固定长度处理
*/
public class TimeServer { public static void main(String[] args) throws Exception {
int port=8080; //服务端默认端口
new TimeServer().bind(port);
}
public void bind(int port) throws Exception{
//Reactor线程组
//1用于服务端接受客户端的连接
EventLoopGroup acceptorGroup = new NioEventLoopGroup();
//2用于进行SocketChannel的网络读写
EventLoopGroup workerGroup = new NioEventLoopGroup();
try {
//Netty用于启动NIO服务器的辅助启动类
ServerBootstrap sb = new ServerBootstrap();
//将两个NIO线程组传入辅助启动类中
sb.group(acceptorGroup, workerGroup)
//设置创建的Channel为NioServerSocketChannel类型
.channel(NioServerSocketChannel.class)
//配置NioServerSocketChannel的TCP参数
.option(ChannelOption.SO_BACKLOG, 1024)
//设置绑定IO事件的处理类
.childHandler(new ChannelInitializer<SocketChannel>() {
@Override
protected void initChannel(SocketChannel arg0) throws Exception {
//处理粘包/拆包问题-固定长度处理
arg0.pipeline().addLast(new FixedLengthFrameDecoder(16));
arg0.pipeline().addLast(new StringDecoder());
arg0.pipeline().addLast(new TimeServerHandler());
}
});
//绑定端口,同步等待成功(sync():同步阻塞方法)
//ChannelFuture主要用于异步操作的通知回调
ChannelFuture cf = sb.bind(port).sync(); //等待服务端监听端口关闭
cf.channel().closeFuture().sync();
} finally {
//优雅退出,释放线程池资源
acceptorGroup.shutdownGracefully();
workerGroup.shutdownGracefully();
}
}
}
TimeServerHandler.java
package com.studyio.nettyFixedLength; import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelHandlerAdapter;
import io.netty.channel.ChannelHandlerContext; /**
*
* @author lgs
* @readme 用于对网络时间进行读写操作,通常我们只需要关注channelRead和exceptionCaught方法。
*
*/
public class TimeServerHandler extends ChannelHandlerAdapter { private int counter;
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
String body = (String) msg;
System.out.println("The time server(Thread:"+Thread.currentThread()+") receive order : "+body+". the counter is : "+ ++counter);
String currentTime = body; ByteBuf resp = Unpooled.copiedBuffer(currentTime.getBytes()); //将待发送的消息放到发送缓存数组中
ctx.writeAndFlush(resp);
}
}
客户端:
TimeClient.java
package com.studyio.nettyFixedLength; import io.netty.bootstrap.Bootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioSocketChannel;
import io.netty.handler.codec.FixedLengthFrameDecoder;
import io.netty.handler.codec.string.StringDecoder; /**
*
* @author lgs
* 处理粘包/拆包问题-消息定长,固定长度处理
*/
public class TimeClient {
public static void main(String[] args) throws Exception {
int port=8080; //服务端默认端口
new TimeClient().connect(port, "127.0.0.1");
}
public void connect(int port, String host) throws Exception{
//配置客户端NIO线程组
EventLoopGroup group = new NioEventLoopGroup();
try {
Bootstrap bs = new Bootstrap();
bs.group(group)
.channel(NioSocketChannel.class)
.option(ChannelOption.TCP_NODELAY, true)
.handler(new ChannelInitializer<SocketChannel>() {
@Override
//创建NIOSocketChannel成功后,在进行初始化时,将它的ChannelHandler设置到ChannelPipeline中,用于处理网络IO事件
protected void initChannel(SocketChannel arg0) throws Exception {
//处理粘包/拆包问题-固定长度处理
arg0.pipeline().addLast(new FixedLengthFrameDecoder(16));
arg0.pipeline().addLast(new StringDecoder()); arg0.pipeline().addLast(new TimeClientHandler());
}
});
//发起异步连接操作
ChannelFuture cf = bs.connect(host, port).sync();
//等待客户端链路关闭
cf.channel().closeFuture().sync();
} finally {
//优雅退出,释放NIO线程组
group.shutdownGracefully();
}
}
}
TimeClientHandler.java
package com.studyio.nettyFixedLength; import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelHandlerAdapter;
import io.netty.channel.ChannelHandlerContext; /**
*
* @author lgs
*
*/
public class TimeClientHandler extends ChannelHandlerAdapter { private int counter;
private byte[] req; @Override
//向服务器发送指令
public void channelActive(ChannelHandlerContext ctx) throws Exception {
ByteBuf message=null;
//模拟一百次请求,发送重复内容
for (int i = 0; i < 100; i++) {
req = ("QUERY TIME ORDER").getBytes();
message=Unpooled.buffer(req.length);
message.writeBytes(req);
ctx.writeAndFlush(message);
}
} @Override
//接收服务器的响应
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
String body = (String) msg;
System.out.println("Now is : "+body+". the counter is : "+ ++counter);
} @Override
//异常处理
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
//释放资源
ctx.close();
} }
2、在包尾增加回车换行符进行分割,例如FTP协议;
2.1 处理粘包/拆包问题-回车换行符进行分割
LineBasedFrameDecoder
服务端:
TimeServer.java
package com.studyio.nettyLine; import io.netty.bootstrap.ServerBootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioServerSocketChannel;
import io.netty.handler.codec.LineBasedFrameDecoder;
import io.netty.handler.codec.string.StringDecoder; /**
*
* @author lgs
* 处理粘包/拆包问题-回车换行符进行分割
*
*/
public class TimeServer { public static void main(String[] args) throws Exception {
int port=8080; //服务端默认端口
new TimeServer().bind(port);
}
public void bind(int port) throws Exception{
//Reactor线程组
//1用于服务端接受客户端的连接
EventLoopGroup acceptorGroup = new NioEventLoopGroup();
//2用于进行SocketChannel的网络读写
EventLoopGroup workerGroup = new NioEventLoopGroup();
try {
//Netty用于启动NIO服务器的辅助启动类
ServerBootstrap sb = new ServerBootstrap();
//将两个NIO线程组传入辅助启动类中
sb.group(acceptorGroup, workerGroup)
//设置创建的Channel为NioServerSocketChannel类型
.channel(NioServerSocketChannel.class)
//配置NioServerSocketChannel的TCP参数
.option(ChannelOption.SO_BACKLOG, 1024)
//设置绑定IO事件的处理类
.childHandler(new ChannelInitializer<SocketChannel>() {
@Override
protected void initChannel(SocketChannel arg0) throws Exception {
//处理粘包/拆包问题-换行符处理
arg0.pipeline().addLast(new LineBasedFrameDecoder(1024));
arg0.pipeline().addLast(new StringDecoder()); arg0.pipeline().addLast(new TimeServerHandler());
}
});
//绑定端口,同步等待成功(sync():同步阻塞方法)
//ChannelFuture主要用于异步操作的通知回调
ChannelFuture cf = sb.bind(port).sync(); //等待服务端监听端口关闭
cf.channel().closeFuture().sync();
} finally {
//优雅退出,释放线程池资源
acceptorGroup.shutdownGracefully();
workerGroup.shutdownGracefully();
}
}
}
TimeServerHandler.java
package com.studyio.nettyLine; import java.util.Date; import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelHandlerAdapter;
import io.netty.channel.ChannelHandlerContext; /**
*
* @author lgs
* @readme 用于对网络时间进行读写操作,通常我们只需要关注channelRead和exceptionCaught方法。
* 处理粘包/拆包问题-回车换行符进行分割
*/
public class TimeServerHandler extends ChannelHandlerAdapter { private int counter;
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
// ByteBuf buf = (ByteBuf) msg;
// //buf.readableBytes():获取缓冲区中可读的字节数;
// //根据可读字节数创建数组
// byte[] req = new byte[buf.readableBytes()];
// buf.readBytes(req);
// String body = new String(req, "UTF-8");
String body = (String) msg;
System.out.println("The time server(Thread:"+Thread.currentThread()+") receive order : "+body+". the counter is : "+ ++counter);
String currentTime = "QUERY TIME ORDER".equalsIgnoreCase(body) ? new Date(System.currentTimeMillis()).toString() : "BAD ORDER";
currentTime = currentTime + System.getProperty("line.separator"); ByteBuf resp = Unpooled.copiedBuffer(currentTime.getBytes());
//将待发送的消息放到发送缓存数组中
ctx.writeAndFlush(resp);
} }
客户端:
TimeClient.java
package com.studyio.nettyLine; import io.netty.bootstrap.Bootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioSocketChannel;
import io.netty.handler.codec.LineBasedFrameDecoder;
import io.netty.handler.codec.string.StringDecoder; /**
*
* @author lgs
* 处理粘包/拆包问题-回车换行符进行分割
*
*/
public class TimeClient {
public static void main(String[] args) throws Exception {
int port=8080; //服务端默认端口
new TimeClient().connect(port, "127.0.0.1");
}
public void connect(int port, String host) throws Exception{
//配置客户端NIO线程组
EventLoopGroup group = new NioEventLoopGroup();
try {
Bootstrap bs = new Bootstrap();
bs.group(group)
.channel(NioSocketChannel.class)
.option(ChannelOption.TCP_NODELAY, true)
.handler(new ChannelInitializer<SocketChannel>() {
@Override
//创建NIOSocketChannel成功后,在进行初始化时,将它的ChannelHandler设置到ChannelPipeline中,用于处理网络IO事件
protected void initChannel(SocketChannel arg0) throws Exception {
//处理粘包/拆包问题-换行符处理
arg0.pipeline().addLast(new LineBasedFrameDecoder(1024));
arg0.pipeline().addLast(new StringDecoder()); arg0.pipeline().addLast(new TimeClientHandler());
}
});
//发起异步连接操作
ChannelFuture cf = bs.connect(host, port).sync();
//等待客户端链路关闭
cf.channel().closeFuture().sync();
} finally {
//优雅退出,释放NIO线程组
group.shutdownGracefully();
}
}
}
TimeClientHandler.java
package com.studyio.nettyLine; import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelHandlerAdapter;
import io.netty.channel.ChannelHandlerContext; /**
*
* @author lgs
* 处理粘包/拆包问题-回车换行符进行分割
*/
public class TimeClientHandler extends ChannelHandlerAdapter { private int counter;
private byte[] req; @Override
//向服务器发送指令
public void channelActive(ChannelHandlerContext ctx) throws Exception {
ByteBuf message=null;
//模拟一百次请求,发送重复内容
for (int i = 0; i < 200; i++) {
//回车换行符System.getProperty("line.separator")
req = ("QUERY TIME ORDER"+System.getProperty("line.separator")).getBytes();
message=Unpooled.buffer(req.length);
message.writeBytes(req);
ctx.writeAndFlush(message);
} } @Override
//接收服务器的响应
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
// ByteBuf buf = (ByteBuf) msg;
// //buf.readableBytes():获取缓冲区中可读的字节数;
// //根据可读字节数创建数组
// byte[] req = new byte[buf.readableBytes()];
// buf.readBytes(req);
// String body = new String(req, "UTF-8");
String body = (String) msg;
System.out.println("Now is : "+body+". the counter is : "+ ++counter);
} @Override
//异常处理
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
//释放资源
ctx.close();
} }
2.2 处理粘包/拆包问题自定义分隔符进行分割
DelimiterBasedFrameDecoder
实现自定义分隔符作为消息的结束标志,完成解码。
服务端:
TimeServer.java
package com.studyio.nettyDelimiter; import io.netty.bootstrap.ServerBootstrap;
import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioServerSocketChannel;
import io.netty.handler.codec.DelimiterBasedFrameDecoder;
import io.netty.handler.codec.string.StringDecoder; /**
*
* @author lgs
* 处理粘包/拆包问题-定义分隔符
*
*/
public class TimeServer {
public static void main(String[] args) throws Exception {
int port=8080; //服务端默认端口
new TimeServer().bind(port);
} public void bind(int port) throws Exception{
//Reactor线程组
//1用于服务端接受客户端的连接
EventLoopGroup acceptorGroup = new NioEventLoopGroup();
//2用于进行SocketChannel的网络读写
EventLoopGroup workerGroup = new NioEventLoopGroup();
try {
//Netty用于启动NIO服务器的辅助启动类
ServerBootstrap sb = new ServerBootstrap();
//将两个NIO线程组传入辅助启动类中
sb.group(acceptorGroup, workerGroup)
//设置创建的Channel为NioServerSocketChannel类型
.channel(NioServerSocketChannel.class)
//配置NioServerSocketChannel的TCP参数
.option(ChannelOption.SO_BACKLOG, 1024)
//设置绑定IO事件的处理类
.childHandler(new ChannelInitializer<SocketChannel>() {
@Override
protected void initChannel(SocketChannel arg0) throws Exception {
//处理粘包/拆包问题-自定义分隔符处理
ByteBuf delimiter = Unpooled.copiedBuffer("$_".getBytes());
arg0.pipeline().addLast(new DelimiterBasedFrameDecoder(1024, delimiter));
arg0.pipeline().addLast(new StringDecoder());
arg0.pipeline().addLast(new TimeServerHandler());
}
});
//绑定端口,同步等待成功(sync():同步阻塞方法)
//ChannelFuture主要用于异步操作的通知回调
ChannelFuture cf = sb.bind(port).sync(); //等待服务端监听端口关闭
cf.channel().closeFuture().sync();
} finally {
//优雅退出,释放线程池资源
acceptorGroup.shutdownGracefully();
workerGroup.shutdownGracefully();
}
}
}
TimeServerHandler.java
package com.studyio.nettyDelimiter; import java.util.Date; import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelHandlerAdapter;
import io.netty.channel.ChannelHandlerContext; /**
*
* @author lgs
* 处理粘包/拆包问题-定义分隔符
* @readme 用于对网络时间进行读写操作,通常我们只需要关注channelRead和exceptionCaught方法。
*
*/
public class TimeServerHandler extends ChannelHandlerAdapter { private int counter;
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
String body = (String) msg;
System.out.println("The time server(Thread:"+Thread.currentThread()+") receive order : "+body+". the counter is : "+ ++counter);
String currentTime = "QUERY TIME ORDER".equalsIgnoreCase(body) ? new Date(System.currentTimeMillis()).toString() : "BAD ORDER";
//处理粘包/拆包问题-定义分隔符
currentTime += "$_"; ByteBuf resp = Unpooled.copiedBuffer(currentTime.getBytes());
//将待发送的消息放到发送缓存数组中
ctx.writeAndFlush(resp);
}
}
客户端:
TimeClient.java
package com.studyio.nettyDelimiter; import io.netty.bootstrap.Bootstrap;
import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioSocketChannel;
import io.netty.handler.codec.DelimiterBasedFrameDecoder;
import io.netty.handler.codec.string.StringDecoder; /**
*
* @author lgs
* 处理粘包/拆包问题-定义分隔符
*
*/
public class TimeClient {
public static void main(String[] args) throws Exception {
int port=8080; //服务端默认端口
new TimeClient().connect(port, "127.0.0.1");
}
public void connect(int port, String host) throws Exception{
//配置客户端NIO线程组
EventLoopGroup group = new NioEventLoopGroup();
try {
Bootstrap bs = new Bootstrap();
bs.group(group)
.channel(NioSocketChannel.class)
.option(ChannelOption.TCP_NODELAY, true)
.handler(new ChannelInitializer<SocketChannel>() {
@Override
//创建NIOSocketChannel成功后,在进行初始化时,将它的ChannelHandler设置到ChannelPipeline中,用于处理网络IO事件
protected void initChannel(SocketChannel arg0) throws Exception {
//处理粘包/拆包问题-自定义分隔符处理
ByteBuf delimiter = Unpooled.copiedBuffer("$_".getBytes());
arg0.pipeline().addLast(new DelimiterBasedFrameDecoder(1024, delimiter));
arg0.pipeline().addLast(new StringDecoder()); arg0.pipeline().addLast(new TimeClientHandler());
}
});
//发起异步连接操作
ChannelFuture cf = bs.connect(host, port).sync();
//等待客户端链路关闭
cf.channel().closeFuture().sync();
} finally {
//优雅退出,释放NIO线程组
group.shutdownGracefully();
}
}
}
TimeClientHandler.java
package com.studyio.nettyDelimiter; import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelHandlerAdapter;
import io.netty.channel.ChannelHandlerContext; /**
*
* @author lgs
* 处理粘包/拆包问题-定义分隔符
*
*/
public class TimeClientHandler extends ChannelHandlerAdapter { private int counter;
private byte[] req; @Override
//向服务器发送指令
public void channelActive(ChannelHandlerContext ctx) throws Exception {
ByteBuf message=null;
//模拟一百次请求,发送重复内容
for (int i = 0; i < 200; i++) {
//处理粘包/拆包问题-定义分隔符
req = ("QUERY TIME ORDER"+"$_").getBytes();
message=Unpooled.buffer(req.length);
message.writeBytes(req);
ctx.writeAndFlush(message);
} } @Override
//接收服务器的响应
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
String body = (String) msg;
System.out.println("Now is : "+body+". the counter is : "+ ++counter);
} @Override
//异常处理
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
//释放资源
ctx.close();
} }
3、将消息分为消息头和消息体,消息头中包含消息总长度(或消息体总长度)的字段,通常设计思路为消息头的第一个字段使用int32来表示消息的总程度;
4、更复杂的应用层协议;
六、Netty高性能的原因
1、异步非阻塞通信
在IO编程过程中,当需要同时处理多个客户端接入请求时,可以利用多线程或者IO多路复用技术进行处理。IO多路复用技术通过把多个IO的阻塞复用到同一个Selector的阻塞上,从而使得系统在单线程的情况下可以同时处理多个客户端请求。与传统的多线程/多进程模型相比,IO多路复用的最大优势是系统开销小,系统不需要创建新的额外进程或者线程,也不需要维护这些进程和线程的运行,降低了系统的维护工作量,节省了系统资源。
Netty的IO线程NioEventLoop由于聚合了多路复用器Selector,可以同时并发处理成百上千个客户端SocketChannel。由于读写操作都是非阻塞的,这就可以充分提升IO线程的运行效率,避免由频繁的IO阻塞导致的线程挂起。另外,由于Netty采用了异步通信模式,一个IO线程可以并发处理N个客户端连接和读写操作,这从根本上解决了传统同步阻塞IO中 一连接一线程模型,架构的性能、弹性伸缩能力和可靠性都得到了极大的提升。
2、高效的Reactor线程模型
常用的Reactor线程模型有三种,分别如下:
Reactor单线程模型:
Reactor单线程模型,指的是所有的IO操作都在同一个NIO线程上面完成,NIO线程职责如下:
1、作为NIO服务端,接收客户端的TCP连接;
2、作为NIO客户端,向服务端发起TCP连接;
3、读取通信对端的请求或者应答消息;
4、向通信对端发送请求消息或者应答消息;
由于Reactor模式使用的是异步非阻塞IO,所有的IO操作都不会导致阻塞,理论上一个线程可以独立处理所有IO相关操作。从架构层面看,一个NIO线程确实可以完成其承担的职责。例如,通过Acceptor接收客户端的TCP连接请求消息,链路建立成功之后,通过Dispatch将对应的ByteBuffer派发到指定的Handler上进行消息编码。用户Handler可以通过NIO线程将消息发送给客户端。
对于一些小容量应用场景,可以使用单线程模型,但是对于高负载、大并发的应用却不合适,主要原因如下:
1、一个NIO线程同时处理成百上千的链路,性能上无法支撑。即便NIO线程的CPU负荷达到100%,也无法满足海量消息的编码、解码、读取和发送;
2、当NIO线程负载过重后,处理速度将变慢,这会导致大量客户端连接超时,超时之后往往会进行重发,这更加重了NIO线程的负载,最终会导致大量消息积压和处理超时,NIO线程会成为系统的性能瓶颈;
3、可靠性问题。一旦NIO线程意外进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障。
为了解决这些问题,从而演进出了Reactor多线程模型。
Reactor多线程模型:
Reactor多线程模型与单线程模型最大的区别就是有一组NIO线程处理IO操作,特点如下:
1、有一个专门的NIO线程——Acceptor线程用于监听服务端,接收客户端TCP连接请求;
2、网络IO操作——读、写等由一个NIO线程池负责,线程池可以采用标准的JDK线程池实现,它包含一个任务队列和N个可用的线程,由这些NIO线程负责消息的读取、编码、解码和发送;
3、1个NIO线程可以同时处理N条链路,但是1个链路只对应1个NIO线程,防止发生并发操作问题。
在绝大多数场景下,Reactor多线程模型都可以满足性能需求;但是,在极特殊应用场景中,一个NIO线程负责监听和处理所有的客户端连接可能会存在性能问题。例如百万客户端并发连接,或者服务端需要对客户端的握手消息进行安全认证,认证本身非常损耗性能。在这类场景下,单独一个Acceptor线程可能会存在性能不足问题,为了解决性能问题,产生了第三种Reactor线程模型——主从Reactor多线程模型。
主从Reactor多线程模型:
主从Reactor线程模型的特点是:服务端用于接收客户端连接的不再是一个单独的NIO线程,而是一个独立的NIO线程池。Acceptor接收到客户端TCP连接请求处理完成后(可能包含接入认证等),将新创建的SocketChannel注册到IO线程池(subReactor线程池)的某个IO线程上,由它负责SocketChannel的读写和编解码工作。Acceptor线程池只用于客户端的登录、握手和安全认证,一旦链路建立成功,就将链路注册到后端subReactor线程池的IO线程上,由IO线程负责后续的IO操作。
利用主从NIO线程模型,可以解决1个服务端监听线程无法有效处理所有客户端连接的性能不足问题。Netty官方推荐使用该线程模型。它的工作流程总结如下:
1、从主线程池中随机选择一个Reactor线程作为Acceptor线程,用于绑定监听端口,接收客户端连接;
2、Acceptor线程接收客户端连接请求之后,创建新的SocketChannel,将其注册到主线程池的其他Reactor线程上,由其负责接入认证、IP黑白名单过滤、握手等操作;
3、然后也业务层的链路正式建立成功,将SocketChannel从主线程池的Reactor线程的多路复用器上摘除,重新注册到Sub线程池的线程上,用于处理IO的读写操作。
3、无锁化的串行设计
在大多数场景下,并行多线程处理可以提升系统的并发性能。但是,如果对于共享资源的并发访问处理不当,会带来严重的锁竞争,这最终会导致性能的下降。为了尽可能地避免锁竞争带来的性能损耗,可以通过串行化设计,既消息的处理尽可能在同一个线程内完成,期间不进行线程切换,这样就避免了多线程竞争和同步锁。
为了尽可能提升性能,Netty采用了串行无锁化设计,在IO线程内部进行串行操作,避免多线程竞争导致的性能下降。表面上看,串行化设计似乎CPU利用率不高,并发程度不够。但是,通过调整NIO线程池的线程参数,可以同时启动多个串行化的线程并行运行,这种局部无锁化的串行线程设计相比一个队列——多个工作线程模型性能更优。
Netty串行化设计工作原理图如下:
Netty的NioEventLoop读取到消息后,直接调用ChannelPipeline的fireChannelRead(Object msg),只要用户不主动切换线程,一直会由NioEventLoop调用到用户的Handler,期间不进行线程切换。这种串行化处理方式避免了多线程导致的锁竞争,从性能角度看是最优的。
4、高效的并发编程
Netty中高效并发编程主要体现:
1、volatile的大量、正确使用;
2、CAS和原子类的广泛使用;
3、线程安全容器的使用;
4、通过读写锁提升并发性能。
5、高性能的序列化框架
影响序列化性能的关键因素总结如下:
1、序列化后的码流大小(网络宽带的占用);
2、序列化与反序列化的性能(CPU资源占用);
3、是否支持跨语言(异构系统的对接和开发语言切换)。
Netty默认提供了对GoogleProtobuf的支持,通过扩展Netty的编解码接口,用户可以实现其他的高性能序列化框架
6、零拷贝
Netty的“零拷贝”主要体现在三个方面:
1)、Netty的接收和发送ByteBuffer采用DIRECT BUFFERS,使用堆外直接内存进行Socket读写,不需要进行字节缓冲区的二次拷贝。如果使用传统的堆内存(HEAP BUFFERS)进行Socket读写,JVM会将堆内存Buffer拷贝一份到直接内存中,然后才写入Socket中。相比于堆外直接内存,消息在发送过程中多了一次缓冲区的内存拷贝。
2)、第二种“零拷贝 ”的实现CompositeByteBuf,它对外将多个ByteBuf封装成一个ByteBuf,对外提供统一封装后的ByteBuf接口。
3)、第三种“零拷贝”就是文件传输,Netty文件传输类DefaultFileRegion通过transferTo方法将文件发送到目标Channel中。很多操作系统直接将文件缓冲区的内容发送到目标Channel中,而不需要通过循环拷贝的方式,这是一种更加高效的传输方式,提升了传输性能,降低了CPU和内存占用,实现了文件传输的“零拷贝”。
7、内存池
随着JVM虚拟机和JIT即时编译技术的发展,对象的分配和回收是个非常轻量级的工作。但是对于缓冲区Buffer,情况却稍有不同,特别是对于堆外直接内存的分配和回收,是一件耗时的操作。为了尽量重用缓冲区,Netty提供了基于内存池的缓冲区重用机制。
package com.studyio.netty; import io.netty.buffer.ByteBuf;
import io.netty.buffer.PooledByteBufAllocator;
import io.netty.buffer.Unpooled; /**
*
* @author lgs
* 通过内存池的方式构建直接缓冲区
*/
public class PooledByteBufDemo { public static void main(String[] args) {
byte[] content = new byte[1024];
int loop = 3000000;
long startTime = System.currentTimeMillis(); ByteBuf poolBuffer = null;
for (int i = 0; i < loop; i++) {
//通过内存池的方式构建直接缓冲区
poolBuffer = PooledByteBufAllocator.DEFAULT.directBuffer(1024);
poolBuffer.writeBytes(content);
//释放buffer
poolBuffer.release();
}
long startTime2 = System.currentTimeMillis();
ByteBuf buffer = null;
for (int i = 0; i < loop; i++) {
//通过非内存池的方式构建直接缓冲区
buffer = Unpooled.directBuffer(1024);
buffer.writeBytes(content);
buffer.release();
}
long endTime = System.currentTimeMillis();
System.out.println("The PooledByteBuf use time :"+(startTime2-startTime));
System.out.println("The UnpooledByteBuf use time :"+(endTime-startTime2));
}
}
运行结果:内存池的方式构建直接缓冲区效率更高
The PooledByteBuf use time :740
The UnpooledByteBuf use time :1025
8、灵活的TCP参数配置能力
Netty在启动辅助类中可以灵活的配置TCP参数,满足不同的用户场景。合理设置TCP参数在某些场景下对于性能的提升可以起到的显著的效果,总结一下对性能影响比较大的几个配置项:
1)、SO_RCVBUF和SO_SNDBUF:通常建议值为128KB或者256KB;
2)、TCP_NODELAY:NAGLE算法通过将缓冲区内的小封包自动相连,组成较大的封包,阻止大量小封包的发送阻塞网络,从而提高网络应用效率。但是对于时延敏感的应用场景需要关闭该优化算法;
3)、软中断:如果Linux内核版本支持RPS(2.6.35以上版本),开启RPS后可以实现软中断,提升网络吞吐量。RPS根据数据包的源地址,目的地址以及目的和源端口,计算出一个hash值,然后根据这个hash值来选择软中断运行的CPU。从上层来看,也就是说将每个连接和CPU绑定,并通过这个hash值,来均衡软中断在多个CPU上,提升网络并行处理性能。
BIO、NIO、AIO系列二:Netty的更多相关文章
- 3. 彤哥说netty系列之Java BIO NIO AIO进化史
你好,我是彤哥,本篇是netty系列的第三篇. 欢迎来我的公从号彤哥读源码系统地学习源码&架构的知识. 简介 上一章我们介绍了IO的五种模型,实际上Java只支持其中的三种,即BIO/NIO/ ...
- IO回忆录之怎样过目不忘(BIO/NIO/AIO/Netty)
有热心的网友加我微信,时不时问我一些技术的或者学习技术的问题.有时候我回微信的时候都是半夜了.但是我很乐意解答他们的问题.因为这些年轻人都是很有上进心的,所以在我心里他们就是很优秀的,我愿意多和努力的 ...
- I/O模型系列之三:IO通信模型BIO NIO AIO
一.传统的BIO 网络编程的基本模型是Client/Server模型,也就是两个进程之间进行相互通信,其中服务端提供位置信息(绑定的IP地址和监听端口),客户端通过连接操作向服务端监听的地址发起连接请 ...
- 【netty】(1)---BIO NIO AIO演变
BIO NIO AIO演变 Netty是一个提供异步事件驱动的网络应用框架,用以快速开发高性能.高可靠的网络服务器和客户端程序.Netty简化了网络程序的开发,是很多框架和公司都在使用的技术. Net ...
- Netty序章之BIO NIO AIO演变
Netty序章之BIO NIO AIO演变 Netty是一个提供异步事件驱动的网络应用框架,用以快速开发高性能.高可靠的网络服务器和客户端程序.Netty简化了网络程序的开发,是很多框架和公司都在使用 ...
- Netty5序章之BIO NIO AIO演变
Netty5序章之BIO NIO AIO演变 Netty是一个提供异步事件驱动的网络应用框架,用以快速开发高性能.高可靠的网络服务器和客户端程序.Netty简化了网络程序的开发,是很多框架和公司都在使 ...
- java BIO/NIO/AIO 学习
一.了解Unix网络编程5种I/O模型 1.1.阻塞式I/O模型 阻塞I/O(blocking I/O)模型,进程调用recvfrom,其系统调用直到数据报到达且被拷贝到应用进程的缓冲区中或者发生错误 ...
- BIO,NIO,AIO总结
熟练掌握 BIO,NIO,AIO 的基本概念以及一些常见问题是你准备面试的过程中不可或缺的一部分,另外这些知识点也是你学习 Netty 的基础. BIO,NIO,AIO 总结 1. BIO (Bloc ...
- BIO,NIO,AIO 总结
BIO,NIO,AIO 总结 Java 中的 BIO.NIO和 AIO 理解为是 Java 语言对操作系统的各种 IO 模型的封装.程序员在使用这些 API 的时候,不需要关心操作系统层面的知识,也不 ...
- 一文弄懂-BIO,NIO,AIO
目录 一文弄懂-BIO,NIO,AIO 1. BIO: 同步阻塞IO模型 2. NIO: 同步非阻塞IO模型(多路复用) 3.Epoll函数详解 4.Redis线程模型 5. AIO: 异步非阻塞IO ...
随机推荐
- FFmpeg(6)-通过av_find_best_stream()来获取音视流的索引
也可以通过av_find_best_stream()函数来获取流的索引: 例: audioStream = av_find_best_stream(ic, AVMEDIA_TYPE_AUDIO, -, ...
- Vue.js使用-http请求
Vue.js使用-ajax使用 1.为什么要使用ajax 前面的例子,使用的是本地模拟数据,通过ajax请求服务器数据. 2.使用jquery的ajax库示例 new Vue({ el: '#app' ...
- python(48):re.split 多分隔符
问题描述: 使用多个界定符分割字符串 问题 你需要将一个字符串分割为多个字段,但是分隔符(还有周围的空格)并不是固定的. 解决方案 string 对象的 split() 方法只适应于非常简单的字符串分 ...
- win10下安装redis 服务
Window 下安装 下载地址:https://github.com/MSOpenTech/redis/releases Redis 支持 32 位和 64 位.这个需要根据你系统平台的实际情况选择, ...
- 双重检验的单例模式,为什么要用volatile关键字
双重检验的单例模式是比较推荐的单例写法,在该代码中的单例对象的是用volatile关键字修饰的.这时就产生的一个疑问,为什么需要volatile来修饰呢?上网查看多个博客,下面简单通俗分析一下当中的原 ...
- maven relativePath
父项目的pom.xml文件的相对路径.默认值为../pom.xml.maven首先从当前构建项目开始查找父项目的pom文件,然后从本地仓库,最有从远程仓库.RelativePath允许你选择一个不同的 ...
- 在Jenkins上做一个定时闹钟
[本文出自天外归云的博客园] 利用Jenkins定时任务来做一个闹钟,每天隔一段时间提醒自己一下“你该休息了!别老坐着!出去走一走!珍爱生命,远离久坐!” 首先在Jenkins上创建一个node. 创 ...
- JAVA-JSP内置对象之response对象实现页面自动跳转
相关资料:<21天学通Java Web开发> response对象 实现页面自动跳转1.可以通过response对象的addHeader()方法添加一个标题为Refresh的标头,并指定页 ...
- 【Unity】JsonUtility解析集合(collections)类型(List)
Unity自带的Json解析工具类JsonUtility居然没有API用于解析集合类型,也太鬼扯了吧. https://stackoverflow.com/questions/36239705/ser ...
- JS压缩工具配置
1.打开文件夹 修改yui.reg 里面修改为自己的目录. 2.yuicompressor.bat 修改SET YUIFOLDER=E:\JS常用工具\JS_compres\build 为自己的目录