RabbitMQ双活实践(转)
有货RabbitMQ双活实践
消息服务中间件在日常工作中用途很多,如业务之间的解耦,其中 RabbitMQ 是比较容易上手且企业使用比较广泛的一种,本文主要介绍有货在使用 RabbitMQ 的一些实践与尝试。
有货的 RabbitMQ 部署架构采用双中心模式,在两套数据中心中各部署一套 RabbitMQ 集群,各中心的 RabbitMQ 服务除了需要为业务提供正常的消息服务外,中心之间还需要实现部分队列消息共享。
消息传递的可靠性
场景 1:生产者与消费者互不感知,怎么确认生产者已将消息投递到 RabbitMQ 服务端,又如何确认消费者已经消费了该消息?
消息 Publish 可靠性
首先来谈谈 Publisher 的可靠发送,如果使用标准 AMQP 0-9-1,保证消息不丢失的唯一方法是使用事务,但使用事务模式会导致服务端吞吐量急剧下降。为了弥补这一点,AMQP 引入了确认机制。它模仿了协议中已经存在的消费者 ACK 确认机制。Publisher 通过发送 confirm.select 命令开启确认模式,随后 RabbitMQ 服务端在收到消息后会进行确认,Publisher 会收到服务端发送的确认回复。要注意:无法在通道中同时使用确认模式与事务模式,只可二选一。
消息 Consume 可靠性
再说说如何保证队列中消息至少被消费一次。当 RabbitMQ 交付消息给 Consumer 时,需要确认 Message 已被投递到 Consumer。Acknowledgements 作用,Consumer 发送确认消息通知 RabbitMQ 服务端已收到消息或已成功消费消息。看下消息生产、消费的流程图:
在 1 号的位置需要开启 Channel 的 Confirm 模式,接收 RabbitMQ 服务端发送的确认消息已到达的 Ack 信息;在 3 号的位置,消费者在成功消费或者业务处理失败后,需要告诉 RabbitMQ 服务端,消息已被消费成功或者失败;当然在某些网络故障中,数据包丢失可能意味着中断的 TCP 连接需要较长时间才能够被操作系统检测到。通过心跳功能,确保应用程序层及时发现连接中断。
在我们的部署架构中,ELB 与 RabbitMQ 之间就是通过此机制来判断服务是否存活,通知消息生产者服务端已挂,异步等待 Confirm 的消息直接进入 Unconfirm 的处理环节。另外为了避免在代理中丢失消息,AMQP 标准具有交换、队列和持久消息的耐久性概念,要求持久对象或持久消息将在重新启动后生存,这些特性同样也是可靠性的基础。
实现消息的延迟重试机制(重试队列)
场景 2:在某些情况下,业务系统在处理消息时可能会失败,此时需要做的是重试,而不是直接丢弃;当然重试也不能直接重试,一旦有任务长时间失败,会导致后面的消息无法被正常处理,此时可以借助死信机制(消息在队列中存活时间超出队列 ttl 的设定)转发投递到特定的重试队列后,随后再尝试重新处理该消息。
下面介绍具体操作:
首先创建两个队列,工作队列命名为“yoho_test_retry”,重试队列命名为“yoho_test_retry.retry“。
再看下工作队列的参数配置:
x-dead-letter-exchange:死信转发的 Exchange
x-dead-letter-routing-key:死信转发时的 Routing-key
yoho_test_retry 绑定到名为“amp.topic”的 topic 类型 Exchange,接收 Routing-key 为“yoho_test_retry”的消息
再看下重试队列的参数配置:
死信转发到“amp.topic”的 Exchange
Routing-key 为“yoho_test_retry”(即工作队列 yoho_test_retry 接收该主题消息)
x-message-ttl:message 在重试队列中存活的时间,也就是延迟多久重试。该队列绑定到“amp.topic”的 Exchange,接收 Routing-key 为“retry.yoho_test_retry”的消息(即接收工作队列的死信),这样就可以实现消息重试队列的机制了
当然还有别的方式,如通过声明 Retry 的 Exchange 来中转到 Retry 队列中,不需要指定 x-dead-letter-routing-key,再指定 Retry 队列的 dead-letter-exchange 为“amp.topic”即可,这种方式不需要每个队列都生成一个 Retry 队列,大家可以自己动手尝试下。
实现消息的延时消费(延时队列)
场景 3:如何实现消息的延时消费也是一种常见的需求,可以让某些任务延时执行,其实同样也可以借助死信机制来实现。
队列 A 用于接收暂存 Producer 的消息,队列 B 用于 Consumer 的消费,在队列 A 中指定消息的 ttl 即生命周期时长,同时指定其死信交换机 DLXs,一旦消息在队列中存活时长超过 ttl 的设定值,那么消息会被转发到 DLXs,将队列 B 绑定到 DLXs,即可接收到队列 A 的死信。
具体操作流程,与场景 2 一样,首先创建两个队列:工作队列名为“yoho_test_delay” ,延迟队列名为“yoho_test_delay.delay“。
再看下工作队列的配置参数:
从“amp.topic”的 Exchange 中接收 Routing-key 为“delay.yoho_test_delay”的消息。
延迟队列“yoho_test_delay.delay”的配置:
x-dead-letter-exchange 死信转到交换机“amp.topic”
死信消息的 Routing-key 为“delay.yoho_test_delay”(即工作队列接收消息的 Routing-key)
消息在延迟队列中存活时间 ttl
该队列绑定到“amp.topic”交换机,接收 Routing-key 为“yoho_test_delay”的消息(即生产者发送消息指定的 topic)。如此一来延迟队列接收消息后,等待 ttl 时长后将消息转发到工作队列中,即可实现延迟队列机制
同样还有别的方法,大家可以灵活实现。
实现跨数据中心的消息共享
场景 4:有时跨中心业务需要共享消息,如缓存清理等,在业务代码中分别向多个中心的 RabbitMQ 发布消费消息显然不是一种比较好的解决方案,那还有什么好的方法呢?
RabbitMQ 为此提供了 Federation 插件来很好地解决此类问题,有货跨中心部署 Federation 架构图:
Federation 插件是一个不需要构建 Cluster,而在 Brokers 之间传输消息的高性能插件,Federation 插件可以在 Brokers 或者 Cluster 之间传输消息,连接的双方可以使用不同的 users 和 virtual hosts,双方也可以使用版本不同的 RabbitMQ 和 Erlang。Federation 插件使用 AMQP 协议通讯,可以接受不连续的传输。
Federation Exchanges,可以看成 Downstream 从 Upstream 主动拉取消息,但并不是拉取所有消息,必须是在 Downstream 上已经明确定义 Bindings 关系的 Exchange,也就是有实际的物理 Queue 来接收消息,才会从 Upstream 拉取消息到 Downstream。使用 AMQP 协议实施代理间通信,Downstream 会将绑定关系组合在一起,绑定 / 解除绑定命令将发送到 Upstream 交换机。因此,Federation Exchange 只接收具有订阅的消息,本处贴出官方图来说明;
但是注意,由于绑定是异步发送的 Upstream 的,所以添加或删除绑定的效果并不立即生效,消息被缓冲在 Upstream 交换机的所在 Broker 创建的队列中,这被称为 Upstream 队列。任何 Upstream Exchange 接收到的消息都可能被 Downstream 中 Federation Exchange 接收到,但直接发送给 Federation Exchange 的消息是不能被 Upstream 中所绑定的 Exchange 接收到的。
下面动手创建名为“fed_test”的 Federation Exchange,配置 Federation 策略“fed_ex”,Federation-upstream-set 可以简单的配置为“all”,表示与所有的 Upstream 都建立点对点的 Federation 连接。
此时在 Downstream 上可以看到建立了一个 Running-Links 连接到 Upstream,该 Exchange 就可以收到 Upstream 中同名 Exchange 收到的所有消息(前提是 Downstream 中有物理队列接收)。
大家应该都知道 RabbitMQ 中单 Queue 能够对外提供的服务能力有局限性,如何通过 Federation 来满足跨中心同时高并发的场景呢,此时就需要自己编写插件了,结合后面会介绍的 Sharding 分片机制,创建多个 Federation 缓冲队列分摊压力,本人的想法仅供参考。
实现消息队列的高可用(HA 容灾)
场景 5:需要保证消息队列高可用的场景有很多,比如核心业务的订单服务、erp 服务。
默认情况下,RabbitMQ 群集中的队列位于单个节点上(首次被声明的节点上),而 Exchanges 和 Bindings 可以认为在所有节点上存在,但也可以将 Queue 在 Cluster 节点之间配置为镜像队列。每个镜像队列由一个 Master 和一个或多个 Slave 组成,如果 Master 因为某些原因失效,则将从 Slave 中选择一个提升为 Master。
发布到队列的消息将复制到所有镜像,消费者连接到主机,无论它们连接到哪个节点,镜像会丢弃已在主设备上确认的消息,队列镜像因此增强了可用性,但不跨节点分配负载。
如上图创建名为“ha_test_queue”的队列,同时为该队列配置了策略 Policy,Ha-mode 简单配置为 all,当然可以使用 Ha-node 参数选择节点制作镜像。
此时队列已被配置为镜像,master 节点位于 server5,slave 节点位于 server6,此时,随意关闭任意一台 RabbitMQ 节点,该队列都可以正常对外提供服务。
当然在高可用的场景下,队列的性能会受到一定的影响,此时可以借助后面提到的 Sharding 机制(根据场景选择 x-modulus-hash 还是 consistent-hash ),解决单队列的性能瓶颈,在高可用、高并发下寻求一个动态的平衡。
RabbitMQ 分片机制
在解决 RabbitMQ 单 Queue 性能问题时可以用到 RabbitMQ Sharding 插件,该插件可以提供消息的自动分片能力:自动创建分片队列,同时交换机将在队列中分区或分片消息。
在某些情况下,你可能希望发送到交换机的消息一致并且均匀地分布在多个不同的队列。在上面的插件中如果队列数量发生变化,则不能确保新的拓扑结构仍然在不同队列之间均匀分配消息,此时就可以借助 Consistent-sharding 类型 Exchange,与 Sharding 插件的主要区别是,该类 Exchange 不能自动创建分片队列,需要手动创建并配置 Binding 关系,且支持一致性 hash。
RabbitMQ 高并发实践
衡量消息服务的性能最重要的指标之一就是吞吐量,那 RabbitMQ 的高并发到底可以到多少呢?首先使用了 32 台 8 核 30G 内存的虚拟机,构建了相对来说比较庞大的 RabbitMQ 集群,各虚拟机的作用分配如下:
30 RabbitMQ RAM 节点(正常 RAM 节点,RabbitMQ 元数据和定义仅保存在 RAM 中);
1 RabbitMQ Disc 节点(元数据持久化节点,其中 RabbitMQ 代理元数据和定义也保留在光盘上);
1 RabbitMQ Stats 节点(统计信息节点,运行 RabbitMQ 管理插件,不带任何队列)。
测试环境架构结构图,大致如下:
在 RabbitMQ 群集节点的前面,挂载负载均衡器,负载均衡器配置中包含了除统计信息节点以外的所有节点。来自连接的 AMQP 客户端的请求在目标池中的节点之间进行了平衡。从目标池排除统计信息节点有助于确保消息队列和传送工作不会最终与管理节点发生资源竞争。在较低吞吐量的情况下,用户可以选择将统计信息节点包含在负载平衡器后台服务池中。实验结果如下:
在这种高负载的生产(1345531 msgs/pers)消费(1413840 msgs/pers)压力下,RabbitMQ 仅有 2343 条消息暂时在其等待发送的队列中累积,在这样的负载下,RabbitMQ 节点也没有显示内存压力,或者需要基于资源限制启动流控机制。我们在 AWS 上搭建了同等规模与配置的环境,验证了上述 Google 提供的测试方案及结果后又做了一些别的尝试,如使用 RabbitMQ Sharding 插件、Consistent-hash Sharding Exchange 来更加灵活地动态均衡队列压力,可以更从容地达到百万并发的性能。
高可靠与高可用从来都是性能杀手,那 RabbitMQ 的表现如何,实际生产应用中应该中如何做权衡?最后通过一组数据来说明,RabbitMQ 环境配置:
单虚拟机:8C8G ;
单位消息大小:1KB;
压测工具:rabbitmq-perf-tes(官方提供)。
上图中,我们在单节点 RabbitMQ 上对消息持久化、Consume-Ack、Publish-Confirm 三个特性做了压测,消息持久化对性能影响最大,Consum-Ack 其次,Publish-Confirm 最小。
Prefetch,可以理解为 Consumer 一次最多获取多少消息进行消费,可以看到,当 Prefetch 为 10 时,性能最差,当 Prefetch 放大到一定阈值如 10000,其对性能的影响也就微乎其微了。
再考虑下,多消费者多生产者对性能的影响,如上图适当增加消费者,保持队列的空闲,可以增加吞吐量,但当到达某一瓶颈时,效果不太明显了。
在集群场景下,Ack 对性能影响明显。
上图为镜像场景的压测结果,对比普通集群,镜像对性能的影响很明显,消息持久化也拉低了集群的性能,适当增加 Prefetch 可以提高集群性能。
性能与高可靠、高可用,鱼和熊掌不可兼得,所以想提升 RabbitMQ 集群或单节点服务的性能,可以牺牲可靠性(根据场景来),在消费能力范围内,尽量提高 Prefetch 的数量;其次就是简单粗暴型(加机器加配置,队列实际存储节点性能未榨干,建议队列均衡分配到各节点)。
RabbitMQ双活实践(转)的更多相关文章
- RabbitMQ安装实践
背景: 最近一个项目的测试环境需要用到rabbitMQ,但运维和开发都没时间,于是自己试着安装了一发,发现安装很简单,记一笔如下: 安装步骤 查看官网上有不同的安装方法,可使用下载安装包或者直接通过其 ...
- Java 小记 — RabbitMQ 的实践与思考
前言 本篇随笔将汇总一些我对消息队列 RabbitMQ 的认识,顺便谈谈其在高并发和秒杀系统中的具体应用. 1. 预备示例 想了下,还是先抛出一个简单示例,随后再根据其具体应用场景进行扩展,我觉得这样 ...
- RabbitMQ最佳实践
在使用消息机制时,我们通常需要考虑以下几个问题: 消息不能丢失 保证消息一定能投递到目的地 保证业务处理和消息发送/消费的一致性 本文以RabbitMQ为例,讨论如何解决以上问题. 消息持久化 如果希 ...
- 后端开发实践系列之三——事件驱动架构(EDA)编码实践
在本系列的前两篇文章中,笔者分别讲到了后端项目的代码模板和DDD编码实践,在本文中,我将继续以编码实践的方式分享如何落地事件驱动架构. 单纯地讲事件驱动架构(Event Driven Architec ...
- 2.RabbitMQ 的可靠性消息的发送
本篇包含 1. RabbitMQ 的可靠性消息的发送 2. RabbitMQ 集群的原理与高可用架构的搭建 3. RabbitMQ 的实践经验 上篇包含 1.MQ 的本质,MQ 的作用 2.R ...
- RabbitMQ入门指南
消息队列(Message Queue,以下简称MQ)常用于异步系统的数据传递.若不用MQ,我们只能[在应用层]使用轮询或接口回调等方式处理,这在效率或耦合度上是难以让人满意的.当然我们也可以在系统间保 ...
- Java进阶专题(二十) 消息中间件架构体系(2)-- RabbitMQ研究
前言 接上文,这个继续介绍RabbitMQ,并理解其底层原理. 介绍 RabbitMQ是由erlang语言开发,基于AMQP(Advanced Message Queue 高级消息队列协议)协议实现的 ...
- 消息队列面试题、RabbitMQ面试题、Kafka面试题、RocketMQ面试题 (史上最全、持续更新、吐血推荐)
文章很长,建议收藏起来,慢慢读! 疯狂创客圈为小伙伴奉上以下珍贵的学习资源: 疯狂创客圈 经典图书 : <Netty Zookeeper Redis 高并发实战> 面试必备 + 大厂必备 ...
- 【Java进阶面试系列之一】哥们,你们的系统架构中为什么要引入消息中间件?
转: [Java进阶面试系列之一]哥们,你们的系统架构中为什么要引入消息中间件? **这篇文章开始,我们把消息中间件这块高频的面试题给大家说一下,也会涵盖一些MQ中间件常见的技术问题. 这里大家可以关 ...
随机推荐
- Mysql查询架构信息
今天想给整个数据库做初始化,也就是清空所有表,然后让索引归零,使用truncate table 就可以,但好多张表,怎么批量搞定呢? 有人说重建表吧,dump一下,然后再重建,但我还是想用trunca ...
- Codeforces 17E Palisection 【Manacher】
Codeforces 17E Palisection E. Palisection In an English class Nick had nothing to do at all, and rem ...
- 在Eclipse中导入dtd和xsd文件,使XML自动提示
DTD 类型约束文件 1. Window->Preferences->XML->XML Catalog->User Specified Entries窗口中,选择Add ...
- Sprint第一个冲刺(第十天)
一.Sprint介绍 更新工程部署文件:实现了云端登录:设计经营情况以及数据分析界面. 实验截图: 任务进度: 二.Sprint周期 看板: 燃尽图:
- 从数据库导出数据到excel之POI操作
项目说明: 1:数据库中有两张表,主键关联 2:根据条件查询数据 3:处理为需要的数据封装类型,然后传到导出excel的方法中 <--框架部署就不详谈了,用的spring框架--> 补充: ...
- elixir 集成ejabberd
备注: 我开发测试的环境时centos 1. 预备环境 1. openssl yum install -y openssl-devel 2. xml yum install -y expat-dev ...
- tomcat nginx 证书切换
1. 导出公钥 keytool -export -alias tomcat -keystore <you jks>wsriakey.keystore -file <outputfil ...
- 洛谷3354(IOI2005)河流——“承诺”
题目:https://www.luogu.org/problemnew/show/P3354 虽说是几个月前曾经讲过的题,但没有题解而自己(花了两个多小时)A了好高兴!!! 这是一个很好的套路:“承诺 ...
- Micro-PaaS(Docker+K8S)
1.概述 Docker是一种Linux容器工具集,它是为构建(Build).交付(Ship)和运行(Run)分布式应用而设计的. Kubernates:是开源的容器集群管理系统.它构建在Docker技 ...
- STM32启动过程解读与跟踪验证
经过查阅各种官方文献和对代码进行单步跟踪,详细地叙述了STM32加电启动的具体过程.对于关键性的语句都指明了出处.下面将学习成果分享给大家,由于笔者知识有限,不当之处敬请指出. 为了更好的说明问题,先 ...