如何用Netty写一个高性能的分布式服务框架?
简介: Netty 是一个致力于创建高性能网络应用程序的成熟的 IO 框架。相比较与直接使用底层的 Java IO API,不需要先成为网络专家就可以基于 Netty 去构建复杂的网络应用。业界常见的涉及到网络通信的相关中间件大部分基于 Netty 实现网络层。
作者 | 家纯
来源 | 阿里技术公众号
一 什么是 Netty? 能做什么?
- Netty 是一个致力于创建高性能网络应用程序的成熟的 IO 框架。
- 相比较与直接使用底层的 Java IO API,你不需要先成为网络专家就可以基于 Netty 去构建复杂的网络应用。
- 业界常见的涉及到网络通信的相关中间件大部分基于 Netty 实现网络层。
二 设计一个分布式服务框架
1 Architecture
2 远程调用的流程
- 启动服务端(服务提供者)并发布服务到注册中心。
- 启动客户端(服务消费者)并去注册中心订阅感兴趣的服务。
- 客户端收到注册中心推送的服务地址列表。
- 调用者发起调用,Proxy从服务地址列表中选择一个地址并将请求信息 <group,providerName,version>,methodName,args[] 等信息序列化为字节数组并通过网络发送到该地址上。
- 服务端收到收到并反序列化请求信息,根据 <group,providerName,version> 从本地服务字典里查找到对应providerObject,再根据 <methodName,args[]> 通过反射调用指定方法,并将方法返回值序列化为字节数组返回给客户端。
- 客户端收到响应信息再反序列化为 Java 对象后由 Proxy 返回给方法调用者。
以上流程对方法调用者是透明的,一切看起来就像本地调用一样。
3 远程调用客户端图解
重要概念:RPC三元组 <ID,Request,Response>。
PS: 若是 netty4.x 的线程模型,IO Thread(worker) —> Map<InvokeId,Future> 代替全局 Map 能更好的避免线程竞争。
4 远程调用服务端图解
5 远程调用传输层图解
6 设计传输层协议栈
协议头
协议体
1)metadata: <group,providerName,version>
2)methodName
3)parameterTypes[] 真的需要吗?
(a)有什么问题?
- 反序列化时 ClassLoader.loadClass() 潜在锁竞争。
- 协议体码流大小。
- 泛化调用多了参数类型。
(b)能解决吗?
- Java方法静态分派规则参考JLS <Java语言规范> $15.12.2.5 Choosing the Most Specific Method 章节。
(c)args[]
(d)其他:traceId,appName…
三 一些Features&好的实践&压榨性能
1 创建客户端代理对象
1)Proxy 做什么?
- 集群容错 —> 负载均衡 —> 网络
2)有哪些创建 Proxy 的方式?
- jdk proxy/javassist/cglib/asm/bytebuddy
3)要注意的:
- 注意拦截toString,equals,hashCode等方法避免远程调用。
4)推荐的(bytebuddy):
2 优雅的同步/异步调用
- 先往上翻再看看“远程调用客户端图解”
- 再往下翻翻看看 Failover 如何处理更好
- 思考下如何拿到 future?
3 单播/组播
- 消息派发器
- FutureGroup
4 泛化调用
5 序列化/反序列化
协议 header 标记 serializer type,同时支持多种。
6 可扩展性
Java SPI:
- java.util.ServiceLoader
- META-INF/services/com.xxx.Xxx
7 服务级别线程池隔离
要挂你先挂,别拉着我。
8 责任链模式的拦截器
太多扩展需要从这里起步。
9 指标度量(Metrics)
10 链路追踪
OpenTracing
11 注册中心
12 流控(应用级别/服务级别)
要有能方便接入第三方流控中间件的扩展能力。
13 Provider线程池满了怎么办?
14 软负载均衡
1)加权随机 (二分法,不要遍历)
2)加权轮训(最大公约数)
3)最小负载
4)一致性 hash (有状态服务场景)
5)其他
注意:要有预热逻辑。
15 集群容错
1)Fail-fast
2)Failover
异步调用怎么处理?
- Bad
- Better
3)Fail-safe
4)Fail-back
5)Forking
6)其他
16 如何压榨性能(Don’t trust it,Test it)
1)ASM 写个 FastMethodAccessor 来代替服务端那个反射调用
2)序列化/反序列化
在业务线程中序列化/反序列化,避免占用 IO 线程:
- 序列化/反序列化占用数量极少的 IO 线程时间片。
- 反序列化常常会涉及到 Class 的加载,loadClass 有一把锁竞争严重(可通过 JMC 观察一下)。
选择高效的序列化/反序列化框架:
- 如kryo/protobuf/protostuff/hessian/fastjson/…
选择只是第一步,它(序列化框架)做的不好的,去扩展和优化之:
- 传统的序列化/反序列化+写入/读取网络的流程:java对象--> byte[] -->堆外内存 / 堆外内存--> byte[] -->java对象。
- 优化:省去 byte[] 环节,直接 读/写 堆外内存,这需要扩展对应的序列化框架。
- String 编码/解码优化。
- Varint 优化:多次 writeByte 合并为 writeShort/writeInt/writeLong。
- Protostuff 优化举例:UnsafeNioBufInput 直接读堆外内存/UnsafeNioBufOutput 直接写堆外内存。
3)IO 线程绑定 CPU
4)同步阻塞调用的客户端和容易成为瓶颈,客户端协程:
- Java层面可选的并不多,暂时也都不完美。
5)Netty Native Transport & PooledByteBufAllocator:
- 减小GC带来的波动。
6)尽快释放 IO 线程去做他该做的事情,尽量减少线程上下文切换。
四 Why Netty?
1 BIO vs NIO
2 Java 原生 NIO API 从入门到放弃
复杂度高
- API复杂难懂,入门困。
- 粘包/半包问题费神。
- 需超强的并发/异步编程功底,否则很难写出高效稳定的实现。
稳定性差,坑多且深
- 调试困难,偶尔遭遇匪夷所思极难重现的bug,边哭边查是常有的事儿。
- linux 下 EPollArrayWrapper.epollWait 直接返回导致空轮训进而导致 100% cpu 的 bug 一直也没解决利索,Netty帮你 work around (通过rebuilding selector)。
NIO代码实现方面的一些缺点
1)Selector.selectedKeys() 产生太多垃圾
Netty 修改了 sun.nio.ch.SelectorImpl 的实现,使用双数组代替 HashSet 存储来 selectedKeys:
- 相比HashSet(迭代器,包装对象等)少了一些垃圾的产生(help GC)。
- 轻微的性能收益(1~2%)。
Nio 的代码到处是 synchronized (比如 allocate direct buffer 和 Selector.wakeup() ):
- 对于 allocate direct buffer,Netty 的 pooledBytebuf 有前置 TLAB(Thread-local allocation buffer)可有效的减少去竞争锁。
- wakeup 调用多了锁竞争严重并且开销非常大(开销大原因: 为了在 select 线程外跟 select 线程通信,linux 平台上用一对 pipe,windows 由于 pipe 句柄不能放入 fd_set,只能委曲求全用两个 tcp 连接模拟),wakeup 调用少了容易导致 select 时不必要的阻塞(如果懵逼了就直接用 Netty 吧,Netty中有对应的优化逻辑)。
- Netty Native Transport 中锁少了很多。
2)fdToKey 映射
- EPollSelectorImpl#fdToKey 维持着所有连接的 fd(描述符)对应 SelectionKey 的映射,是个 HashMap。
- 每个 worker 线程有一个 selector,也就是每个 worker 有一个 fdToKey,这些 fdToKey 大致均分了所有连接。
- 想象一下单机 hold 几十万的连接的场景,HashMap 从默认 size=16,一步一步 rehash...
3)Selector在linux 平台是 Epoll LT 实现
- Netty Native Transport支持Epoll ET。
4)Direct Buffers 事实上还是由 GC 管理
- DirectByteBuffer.cleaner 这个虚引用负责 free direct memory,DirectByteBuffer 只是个壳子,这个壳子如果坚强的活下去熬过新生代的年龄限制最终晋升到老年代将是一件让人伤心的事情…
- 无法申请到足够的 direct memory 会显式触发 GC,Bits.reserveMemory() -> { System.gc() },首先因为 GC 中断整个进程不说,代码中还 sleep 100 毫秒,醒了要是发现还不行就 OOM。
- 更糟的是如果你听信了个别<XX优化宝典>谗言设置了-XX:+DisableExplicitGC 参数,悲剧会静悄悄的发生...
- Netty的UnpooledUnsafeNoCleanerDirectByteBuf 去掉了 cleaner,由 Netty 框架维护引用计数来实时的去释放。
五 Netty 的真实面目
1 Netty 中几个重要概念及其关系
EventLoop
- 一个 Selector。
- 一个任务队列(mpsc_queue: 多生产者单消费者 lock-free)。
- 一个延迟任务队列(delay_queue: 一个二叉堆结构的优先级队列,复杂度为O(log n))。
- EventLoop 绑定了一个 Thread,这直接避免了pipeline 中的线程竞争。
Boss: mainReactor 角色,Worker: subReactor 角色
- Boss 和 Worker 共用 EventLoop 的代码逻辑,Boss 处理 accept 事件,Worker 处理 read,write 等事件。
- Boss 监听并 accept 连接(channel)后以轮训的方式将 channel 交给 Worker,Worker 负责处理此 channel 后续的read/write 等 IO 事件。
- 在不 bind 多端口的情况下 BossEventLoopGroup 中只需要包含一个 EventLoop,也只能用上一个,多了没用。
- WorkerEventLoopGroup 中一般包含多个 EventLoop,经验值一般为 cpu cores * 2(根据场景测试找出最佳值才是王道)。
- Channel 分两大类 ServerChannel 和 Channel,ServerChannel 对应着监听套接字(ServerSocketChannel),Channel 对应着一个网络连接。
2 Netty4 Thread Model
3 ChannelPipeline
4 Pooling&reuse
PooledByteBufAllocator
- 基于 jemalloc paper (3.x)
- ThreadLocal caches for lock free:这个做法导致曾经有坑——申请(Bytebuf)线程与归还(Bytebuf)线程不是同一个导致内存泄漏,后来用一个mpsc_queue解决,代价就是牺牲了一点点性能。
- Different size classes。
Recycler
- ThreadLocal + Stack。
- 曾经有坑,申请(元素)线程与归还(元素)线程不是同一个导致内存泄漏。
- 后来改进为不同线程归还元素的时候放入一个 WeakOrderQueue 中并关联到 stack 上,下次 pop 时如果 stack 为空则先扫描所有关联到当前 stack 上的 weakOrderQueue。
- WeakOrderQueue 是多个数组的链表,每个数组默认size=16。
- 存在的问题:思考一下老年代对象引用新生代对象对 GC 的影响?
5 Netty Native Transport
相比 Nio 创建更少的对象,更小的 GC 压力。
针对 linux 平台优化,一些 specific features:
- SO_REUSEPORT - 端口复用(允许多个 socket 监听同一个 IP+端口,与 RPS/RFS 协作,可进一步提升性能):可把 RPS/RFS 模糊的理解为在软件层面模拟多队列网卡,并提供负载均衡能力,避免网卡收包发包的中断集中的一个 CPU core 上而影响性能。
- TCP_FASTOPEN - 3次握手时也用来交换数据。
- EDGE_TRIGGERED (支持Epoll ET是重点)。
- Unix 域套接字(同一台机器上的进程间通信,比如Service Mesh)。
6 多路复用简介
select/poll
- 本身的实现机制上的限制(采用轮询方式检测就绪事件,时间复杂度: O(n),每次还要将臃肿的 fd_set 在用户空间和内核空间拷贝来拷贝去),并发连接越大,性能越差。
- poll 相比 select 没有很大差异,只是取消了最大文件描述符个数的限制。
- select/poll 都是 LT 模式。
epoll
- 采用回调方式检测就绪事件,时间复杂度: O(1),每次 epoll_wait 调用只返回已就绪的文件描述符。
- epoll 支持 LT 和 ET 模式。
7 稍微深入了解一点 Epoll
LT vs ET
概念:
- LT:level-triggered 水平触发
- ET:edge-triggered 边沿触发
可读:
- buffer 不为空的时候 fd 的 events 中对应的可读状态就被置为1,否则为0。
可写:
- buffer 中有空间可写的时候 fd 的 events 中对应的可写状态就被置为1,否则为0。
图解:
epoll 三个方法简介
1)主要代码:linux-2.6.11.12/fs/eventpoll.c
2)int epoll_create(int size)
创建 rb-tree(红黑树)和 ready-list (就绪链表):
- 红黑树O(logN),平衡效率和内存占用,在容量需求不能确定并可能量很大的情况下红黑树是最佳选择。
- size参数已经没什么意义,早期epoll实现是hash表,所以需要size参数。
3)int epoll_ctl(int epfd,int op,int fd,struct epoll_event *event)
- 把epitem放入rb-tree并向内核中断处理程序注册ep_poll_callback,callback触发时把该epitem放进ready-list。
4)int epoll_wait(int epfd,struct epoll_event * events,int maxevents,int timeout)
- ready-list —> events[]。
epoll 的数据结构
epoll_wait 工作流程概述
对照代码:linux-2.6.11.12/fs/eventpoll.c:
1)epoll_wait 调用 ep_poll
- 当 rdlist(ready-list) 为空(无就绪fd)时挂起当前线程,直到 rdlist 不为空时线程才被唤醒。
2)文件描述符 fd 的 events 状态改变
- buffer由不可读变为可读或由不可写变为可写,导致相应fd上的回调函数ep_poll_callback被触发。
3)ep_poll_callback 被触发
- 将相应fd对应epitem加入rdlist,导致rdlist不空,线程被唤醒,epoll_wait得以继续执行。
4)执行 ep_events_transfer 函数
- 将rdlist中的epitem拷贝到txlist中,并将rdlist清空。
- 如果是epoll LT,并且fd.events状态没有改变(比如buffer中数据没读完并不会改变状态),会再重新将epitem放回rdlist。
5)执行 ep_send_events 函数
- 扫描txlist中的每个epitem,调用其关联fd对应的poll方法取得较新的events。
- 将取得的events和相应的fd发送到用户空间。
8 Netty 的最佳实践
1)业务线程池必要性
- 业务逻辑尤其是阻塞时间较长的逻辑,不要占用netty的IO线程,dispatch到业务线程池中去。
2)WriteBufferWaterMark
- 注意默认的高低水位线设置(32K~64K),根据场景适当调整(可以思考一下如何利用它)。
3)重写 MessageSizeEstimator 来反应真实的高低水位线
- 默认实现不能计算对象size,由于write时还没路过任何一个outboundHandler就已经开始计算message size,此时对象还没有被encode成Bytebuf,所以size计算肯定是不准确的(偏低)。
4)注意EventLoop#ioRatio的设置(默认50)
- 这是EventLoop执行IO任务和非IO任务的一个时间比例上的控制。
5)空闲链路检测用谁调度?
- Netty4.x默认使用IO线程调度,使用eventLoop的delayQueue,一个二叉堆实现的优先级队列,复杂度为O(log N),每个worker处理自己的链路监测,有助于减少上下文切换,但是网络IO操作与idle会相互影响。
- 如果总的连接数小,比如几万以内,上面的实现并没什么问题,连接数大建议用HashedWheelTimer实现一个IdleStateHandler,HashedWheelTimer复杂度为 O(1),同时可以让网络IO操作和idle互不影响,但有上下文切换开销。
6)使用ctx.writeAndFlush还是channel.writeAndFlush?
- ctx.write直接走到下一个outbound handler,注意别让它违背你的初衷绕过了空闲链路检测。
- channel.write从末尾开始倒着向前挨个路过pipeline中的所有outbound handlers。
7)使用Bytebuf.forEachByte() 来代替循环 ByteBuf.readByte()的遍历操作,避免rangeCheck()
8)使用CompositeByteBuf来避免不必要的内存拷贝
- 缺点是索引计算时间复杂度高,请根据自己场景衡量。
9)如果要读一个int,用Bytebuf.readInt(),不要Bytebuf.readBytes(buf,0,4)
- 这能避免一次memory copy (long,short等同理)。
10)配置UnpooledUnsafeNoCleanerDirectByteBuf来代替jdk的DirectByteBuf,让netty框架基于引用计数来释放堆外内存
io.netty.maxDirectMemory:
- < 0: 不使用cleaner,netty方面直接继承jdk设置的最大direct memory size,(jdk的direct memory size是独立的,这将导致总的direct memory size将是jdk配置的2倍)。
- == 0: 使用cleaner,netty方面不设置最大direct memory size。
0:不使用cleaner,并且这个参数将直接限制netty的最大direct memory size,(jdk的direct memory size是独立的,不受此参数限制)。
11)最佳连接数
- 一条连接有瓶颈,无法有效利用cpu,连接太多也白扯,最佳实践是根据自己场景测试。
12)使用PooledBytebuf时要善于利用 -Dio.netty.leakDetection.level 参数
- 四种级别:DISABLED(禁用),SIMPLE(简单),ADVANCED(高级),PARANOID(偏执)。
- SIMPLE,ADVANCED采样率相同,不到1%(按位与操作 mask ==128 - 1)。
- 默认是SIMPLE级别,开销不大。
- 出现泄漏时日志会出现“LEAK: ”字样,请时不时grep下日志,一旦出现“LEAK: ”立刻改为ADVANCED级别再跑,可以报告泄漏对象在哪被访问的。
- PARANOID:测试的时候建议使用这个级别,100%采样。
13)Channel.attr(),将自己的对象attach到channel上
- 拉链法实现的线程安全的hash表,也是分段锁(只锁链表头),只有hash冲突的情况下才有锁竞争(类似ConcurrentHashMapV8版本)。
- 默认hash表只有4个桶,使用不要太任性。
9 从 Netty 源码中学到的代码技巧
1)海量对象场景中 AtomicIntegerFieldUpdater --> AtomicInteger
- Java中对象头12 bytes(开启压缩指针的情况下),又因为Java对象按照8字节对齐,所以对象最小16 bytes,AtomicInteger大小为16 bytes,AtomicLong大小为 24 bytes。
- AtomicIntegerFieldUpdater作为static field去操作volatile int。
2)FastThreadLocal,相比jdk的实现更快
- 线性探测的Hash表 —> index原子自增的裸数组存储。
3)IntObjectHashMap / LongObjectHashMap …
- Integer—> int
- Node[] —> 裸数组
4)RecyclableArrayList
- 基于前面说的Recycler,频繁new ArrayList的场景可考虑。
5)JCTools
- 一些jdk没有的 SPSC/MPSC/SPMC/MPMC 无锁并发队以及NonblockingHashMap(可以对比ConcurrentHashMapV6/V8)
原文链接
本文为阿里云原创内容,未经允许不得转载。
如何用Netty写一个高性能的分布式服务框架?的更多相关文章
- 高性能的分布式服务框架 Dubbo
我思故我在,提问启迪思考! 1. 什么是Dubbo? 官网:http://dubbo.io/,DUBBO是一个分布式服务框架,致力于提供高性能和透明化的RPC远程服务调用方案,以及作为SOA服务治理的 ...
- 微言Netty:分布式服务框架
1. 前言 几年前,我就一直想着要设计一款自己的实时通讯框架,于是出来了TinySocket,她是基于微软的SocketAsyncEventArgs来实现的,由于此类提供的功能很简洁,所以当时自己实现 ...
- 高性能优秀的服务框架-dubbo介绍
先来了解一下这些年架构的变化,下面的故事是我编的.... "传统架构":很多年前,刚学完JavaWeb开发的我凭借一人之力就开发了一个网站,网站 所有的功能和应用都集中在一起,方便 ...
- Dubbo分布式服务框架
Dubbo (开源分布式服务框架) 编辑 本词条缺少信息栏,补充相关内容使词条更完整,还能快速升级,赶紧来编辑吧! Dubbo是 [1] 阿里巴巴公司开源的一个高性能优秀的服务框架,使得应用可通过高 ...
- 2.Dubbo开源分布式服务框架(JAVA RPC)
1. Dubbo介绍 Dubbox是阿里巴巴公司开源的一个高性能优秀的服务框架,使得应用可通过高性能RPC(即远程调用)实现服务的输出和输入功能, 可以和Spring框架无集成.Dubbo是一款高性能 ...
- Tair是一个高性能,分布式,可扩展,高可靠的key/value结构存储系统(转)
Tair是一个高性能,分布式,可扩展,高可靠的key/value结构存储系统! Tair专为小文件优化,并提供简单易用的接口(类似Map)Tair支持Java和C版本的客户端 Tair is a di ...
- linux常用终端指令+如何用vim写一个c程序并运行
在装好ubuntu之后今天学习了一些linux的一些基础知识: windows里面打开命令窗口是win+r,在linux系统里面,ctrl+alt+t打开终端,今天的一些指令都是围绕终端来说的 首先s ...
- Dubbo[一个分布式服务框架
http://alibaba.github.io/dubbo-doc-static/User+Guide-zh.htm#UserGuide-zh-API%E9%85%8D%E7%BD%AE http: ...
- 超详细,新手都能看懂 !使用SpringBoot+Dubbo 搭建一个简单的分布式服务
来自:JavaGuide Github 地址:https://github.com/Snailclimb/springboot-integration-examples 目录: 使用 SpringBo ...
- 从零开始写一个武侠冒险游戏-0-开发框架Codea简介
从零开始写一个武侠冒险游戏-0-开发框架Codea简介 作者:FreeBlues 修订记录 2016.06.21 初稿完成. 2016.08.03 增加对 XCode 项目文件的说明. 概述 本游戏全 ...
随机推荐
- 使用Servlet实现文件下载
一位朋友最近在学习JavaWeb开发,开始学习文件下载操作,他自己尝试着去网上看一些教程,总的来说也不是太了解,就让我和他说说,如何实现文件下载功能.我和他说了一下大致的思路,主要分为前端和后端两部分 ...
- 瑞云与宜宾职院开展校企合作,同深圳VR联合会共建元宇宙产业学院
2022年7月9日,宜宾职业技术学院携手深圳市虚拟现实产业联合会和深圳市瑞云科技有限公司,合作共建的"元宇宙职业教育研究与应用中心"."元宇宙产业学院"授牌仪式 ...
- 三维模型3DTile格式轻量化的纹理压缩和质量关系分析
三维模型3DTile格式轻量化的纹理压缩和质量关系分析 在三维模型的3DTile格式轻量化处理中,纹理压缩是一个重要环节.但是,纹理压缩和模型质量之间存在明显的关系需要权衡.以下是纹理压缩和模型质量关 ...
- 【LeetCode刷题】744. 寻找比目标字母大的最小字母
744. 寻找比目标字母大的最小字母(点击跳转LeetCode) 给你一个排序后的字符列表 letters ,列表中只包含小写英文字母.另给出一个目标字母 target,请你寻找在这一有序列表里比目标 ...
- .net core WPF关于进程打开网页链接报错"文件找不到"
System.Diagnostics.Process proc = new System.Diagnostics.Process(); proc.StartInfo.FileName = " ...
- 4 PyExecJS模块
PyExecJS模块 pyexecjs是一个可以帮助我们运行js代码的一个第三方模块. 其使用是非常容易上手的. 但是它的运行是要依赖能运行js的第三方环境的. 这里我们选择用node作为我们运行js ...
- 数据库SQL(MSSQLSERVER)服务启动错误代码3414
昨天永和客户联系我,说他们的前台系统报错了,给我发了报错的图片.看到错误的第一眼就知道是数据库出问题了,连不上sql Server. 虽然知道是数据库出问题了,但是刚开始的时候没有打开SQL Serv ...
- 打造HarmonyOS智能全场景,7大BUFF为您助力!
<HarmonyOS Connect系列课>上线,7套课程教会开发者打造智能全场景: <HarmonyOS Connect系列课>共含7套课程,按照业务流程先后分别为--Dev ...
- 【直播预告】HarmonyOS 极客松赋能直播第六期:产品创新从哪里来?
- DevEco Studio 3.1差异化构建打包,提升多版本应用开发效率
原文:https://mp.weixin.qq.com/s/8XtgZ-k0mGXCjKHfSXFoOg,点击链接查看更多技术内容. HUAWEI DevEco Studio是开发Harmo ...