EMQ X 系统调优和性能压测
前言
如果使用 EMQ 来承载百万级别的用户连接可以吗?毕竟在 MQTT 官方介绍上说 EMQ X 可以处理千万并发客户端,而 EMQ X 自己官方称 4.x 版本 MQTT 连接压力测试一台 8 核心、32G 内存的 CentOS 服务器能够承载 130 万台设备的连接。究竟性能如何呢?试了才知道。
系统调优
Linux 操作系统参数
系统全局允许分配的最大文件句柄数:
# 2 millions system-wide
sysctl -w fs.file-max=2097152
sysctl -w fs.nr_open=2097152
echo 2097152 > /proc/sys/fs/nr_open
允许当前会话 / 进程打开文件句柄数:
ulimit -n 1048576
/etc/sysctl.conf
持久化 'fs.file-max' 设置到 /etc/sysctl.conf 文件:
fs.file-max = 1048576
/etc/systemd/system.conf 设置服务最大文件句柄数:
DefaultLimitNOFILE=1048576
/etc/security/limits.conf
/etc/security/limits.conf 持久化设置允许用户 / 进程打开文件句柄数:
* soft nofile 1048576
* hard nofile 1048576
TCP 协议栈网络参数
并发连接 backlog 设置:
sysctl -w net.core.somaxconn=32768
sysctl -w net.ipv4.tcp_max_syn_backlog=16384
sysctl -w net.core.netdev_max_backlog=16384
可用知名端口范围:
sysctl -w net.ipv4.ip_local_port_range='1000 65535'
TCP Socket 读写 Buffer 设置:
sysctl -w net.core.rmem_default=262144
sysctl -w net.core.wmem_default=262144
sysctl -w net.core.rmem_max=16777216
sysctl -w net.core.wmem_max=16777216
sysctl -w net.core.optmem_max=16777216
#sysctl -w net.ipv4.tcp_mem='16777216 16777216 16777216'
sysctl -w net.ipv4.tcp_rmem='1024 4096 16777216'
sysctl -w net.ipv4.tcp_wmem='1024 4096 16777216'
TCP 连接追踪设置:
sysctl -w net.nf_conntrack_max=1000000
sysctl -w net.netfilter.nf_conntrack_max=1000000
sysctl -w net.netfilter.nf_conntrack_tcp_timeout_time_wait=30
TIME-WAIT Socket 最大数量、回收与重用设置:
sysctl -w net.ipv4.tcp_max_tw_buckets=1048576
# 注意:不建议开启該设置,NAT 模式下可能引起连接 RST
# sysctl -w net.ipv4.tcp_tw_recycle=1
# sysctl -w net.ipv4.tcp_tw_reuse=1
FIN-WAIT-2 Socket 超时设置:
sysctl -w net.ipv4.tcp_fin_timeout=15
Erlang 虚拟机参数
优化设置 Erlang 虚拟机启动参数,配置文件 emqx/etc/emqx.conf:
## Erlang Process Limit
node.process_limit = 2097152
## Sets the maximum number of simultaneously existing ports for this system
node.max_ports = 1048576
EMQ X 消息服务器参数
设置 TCP 监听器的 Acceptor 池大小,最大允许连接数。配置文件 emqx/etc/emqx.conf:
## TCP Listener
listener.tcp.external = 0.0.0.0:1883
listener.tcp.external.acceptors = 64
listener.tcp.external.max_connections = 1024000
测试客户端设置
测试客户端服务器在一个接口上,最多只能创建 65000 连接:
sysctl -w net.ipv4.ip_local_port_range="500 65535"
echo 1000000 > /proc/sys/fs/nr_open
ulimit -n 100000
重启 EMQ X 之后可以在 Dashboard 看到如下显示:
性能压测
emqtt_bench 是基于 Erlang 编写的,一个简洁强大的 MQTT 协议性能测试工具,如需大规模场景、深度定制化的测试服务推荐使用 EMQ 合作伙伴 XMeter 测试服务。
编译安装
emqtt_bench
的运行依赖于 Erlang/OTP 21.2 以上版本运行环境,安装过程略过,详情请参考网上各个安装教程。
Erlang 环境安装完成后,下载 emqtt-bench 最新代码,并编译:
git clone https://github.com/emqx/emqtt-bench
cd emqtt-bench
make
编译完成后,当前目录下会生成 一个名为emqtt_bench 的可执行脚本。执行以下命令,确认其能正常使用:
./emqtt_bench
Usage: emqtt_bench pub | sub | conn [--help]
输出以上内容,则证明 emqtt_bench 已正确安装到主机。
使用
emqtt_bench
共三个子命令:
pub
:用于创建大量客户端执行发布消息的操作sub
:用于创建大量客户端执行订阅主题,并接受消息的操作conn
:用于创建大量的连接
发布
执行 ./emqtt_bench pub --help
会得到可用的参数输出,此处整理:
参数 | 简写 | 可选值 | 默认值 | 说明 |
---|---|---|---|---|
--host | -h | - | localhost | 要连接的 MQTT 服务器地址 |
--port | -p | - | 1883 | MQTT 服务端口 |
--version | -V | 3/4/5 | 5 | 使用的 MQTT 协议版本 |
--count | -c | - | 200 | 客户端总数 |
--startnumber | -n | - | 0 | 客户端数量起始值 |
--interval | -i | - | 10 | 每间隔多少时间创建一个客户端;单位:毫秒 |
--interval_of_msg | -I | - | 1000 | 每间隔多少时间发送一个消息 |
--username | -u | - | 无;非必选 | 客户端用户名 |
--password | -P | - | 无;非必选 | 客户端密码 |
--topic | -t | - | 无;必选 | 发布的主题;支持站位符:%c :表示 ClientId、 %u :表示 Username、 %i :表示客户端的序列数 |
--szie | -s | - | 256 | 消息 Payload 的大小;单位:字节 |
--qos | -q | - | 0 | Qos 等级 |
--retain | -r | true/false | false | 消息是否设置 Retain 标志 |
--keepalive | -k | - | 300 | 客户端心跳时间 |
--clean | -C | true/false | true | 是否以清除会话的方式建立连接 |
--ssl | -S | true/false | false | 是否启用 SSL |
--certfile | - | - | 无 | 客户端 SSL 证书 |
--keyfile | - | - | 无 | 客户端 SSL 秘钥文件 |
--ws | - | true/false | false | 是否以 Websocket 的方式建立连接 |
--ifaddr | - | - | 无 | 指定客户端连接使用的本地网卡 |
例如,我们启动 10 个连接,分别每秒向主题 t 发送 100 条 Qos0 消息,其中每个消息体的大小为 16 字节大小:
./emqtt_bench pub -t t -h emqx-server -s 16 -q 0 -c 10 -I 10
订阅
执行 ./emqtt_bench sub --help
可得到该子命令的所有的可用参数。它们的解释已包含在上表中,此处略过。
例如,我们启动 500 个连接,每个都以 Qos0 订阅 t
主题:
./emqtt_bench sub -t t -h emqx-server -c 500
连接
执行 ./emqtt_bench conn --help
可得到该子命令所有可用的参数。它们的解释已包含在上表中,此处略过。
例如,我们启动 1000 个连接:
./emqtt_bench conn -h emqx-server -c 1000
SSL 连接
emqtt_bench
支持建立 SSL 的安全连接,并执行测试。
单向证书,例如:
./emqtt_bench sub -c 100 -i 10 -t bench/%i -p 8883 -S
./emqtt_bench pub -c 100 -I 10 -t bench/%i -p 8883 -s 256 -S
双向证书,例如:
./emqtt_bench sub -c 100 -i 10 -t bench/%i -p 8883 --certfile path/to/client-cert.pem --keyfile path/to/client-key.pem
./emqtt_bench pub -c 100 -i 10 -t bench/%i -s 256 -p 8883 --certfile path/to/client-cert.pem --keyfile path/to/client-key.pem
典型压测场景
场景说明
此处我们以 2 类最典型的场景来验证工具的使用:
- 连接量:使用 emqtt_bench 创建百万连接到 EMQ X Broker
- 吞吐量:使用 emqtt_bench 在 EMQ X Broker 中创建出 10W/s 的 Qos0 消息吞吐量
机器及部署拓扑图
共需准备三台 8C16G 服务器,一台为 EMQX Broker,两台为 客户端压力机。其中:
- 系统:
CentOS Linux release 7.7.1908 (Core)
- CPU:
Intel Xeon Processor (Skylake)
主频:2693.670 MHZ
- 服务端:
emqx-centos7-v4.0.2.zip
压力机:
emqtt-bench v0.3.1
- 每台压力机分别配置 10 张网卡,用于连接测试中建立大量的 MQTT 客户端连接
拓扑结构如下:
+-----------------------+
| bench1: 192.168.0.100 | ------- +-----------------------+
+-----------------------+ \-----> | EMQ X Broker |
+-----------------------+ /-----> | 192.168.0.99 |
| bench2: 192.168.0.101 | ------- +-----------------------+
+-----------------------+
连接量测试
在执行完系统调优后,首先启动服务端:
./bin/emqx start
然后在 bench1
上的每张网卡上启动 5w 的连接数,共计 50w 的连接:
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.100
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.101
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.102
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.103
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.104
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.105
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.106
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.107
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.108
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.109
在 bench2
上也执行同样的操作。
在所有连接建立完成后,执行 ./bin/emqx_ctl listeners,并找到以下的内容, 查看 EMQ X Broker 中连接数的信息:
listener on mqtt:tcp:0.0.0.0:1883
acceptors : 8
max_conns : 1024000
current_conn : 1000000
shutdown_count : []
吞吐测试
同样的,首先启动服务端:
./bin/emqx start
在 bench1
启动 500 个订阅客户端:
./emqtt_bench sub -t t -h 192.168.0.99 -c 500
然后再 bench2
上启动 20 个发布端,并且每秒发布 10 条消息:
./emqtt_bench pub -t t -h 192.168.0.99 -c 20 -I 100
然后,回到 bench1
上的订阅客户端,可看到当前接收消息的速率,类似于:
recv(28006): total=2102563, rate=99725(msg/sec)
附上我的压测图:
我使用了 1核1G 的服务器,对 2核8G 的 EMQ X 服务器进行压力得到了 45W 的稳定连接峰值,可以得知最佳比例是 1G 内存对应 6W 设备连接,和官方给出的 32G内存 130W 台设备的连接数非常接近。当然我这里只是空连接,如果要进行消息的订阅、下发,内存会消耗的更多,具体的视使用情况而定。
https://www.lyafei.com/archives/196/
EMQ X 系统调优和性能压测的更多相关文章
- linux系统调优工具
系统调优思路 性能优化就是找到系统处理中的瓶颈以及去除这些的过程,性能优化其实是对 OS 各子系统达到一种平衡的定义.具体步骤如下: 1. 系统的运行状况: CPU -> MEM -> D ...
- 软件性能测试分析与调优实践之路-JMeter对RPC服务的性能压测分析与调优-手稿节选
一.JMeter 如何通过自定义Sample来压测RPC服务 RPC(Remote Procedure Call)俗称远程过程调用,是常用的一种高效的服务调用方式,也是性能压测时经常遇到的一种服务调用 ...
- 大数据集群Linux CentOS 7.6 系统调优篇
大数据集群Linux CentOS 7.6 系统调优篇 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.设置主机hosts文件 1>.修改主机名 [root@node100 ...
- Linux系统调优1
Linux在进行系统调优的时候,首先要考虑整个操作系统的结构,然后针对各个部分进行优化,下面展示一个Linux系统的各个组成部分: 有上图可以看出,我们可以调整的有应用程序,库文件,内核,驱动,还有硬 ...
- Sybase数据库应用系统调优的五大领域
Sybase数据库应用系统调优的五大领域 2011/3/14/13:49来源:慧聪it网 本 文以“某大型商业银行的网上银行系统”这一很具有典型意义的企业级大型Sybase数据库应用系统为例,涉及了数 ...
- Mysql数据库调优和性能优化的21条最佳实践
Mysql数据库调优和性能优化的21条最佳实践 1. 简介 在Web应用程序体系架构中,数据持久层(通常是一个关系数据库)是关键的核心部分,它对系统的性能有非常重要的影响.MySQL是目前使用最多的开 ...
- fuse3 编译相关简要记录 与 fuse3 系统调优;
下面是在使用fuse3 编译bbfs 过程中一些参数,用于备忘: FUSE_CFLAGS="-I/usr/local/include/fuse3" FUSE_LIBS=" ...
- Linux低延迟服务器系统调优
最近做了一些系统和网络调优相关的测试,达到了期望的效果,有些感悟.同时,我也发现知乎上对Linux服务器低延迟技术的讨论比较欠缺(满嘴高并发现象):或者对现今cpu + 网卡的低延迟潜力认识不足(动辄 ...
- Linux系统调优——CPU(一)
(1).系统调优思路 性能优化就是找到系统处理中的瓶颈以及去除这些的过程,性能优化其实是对OS 各子系统达到一种平衡的定义.具体步骤如下: 1. 系统的运行状况: CPU -> MEM -& ...
- Linux系统调优相关工具
一.系统调优概述 系统的运行状况: CPU -> MEM -> DISK*-> NETWORK -> 应用程序调优 分析是否有瓶颈(依据当前应用需求) 调优(把错误的调正确) ...
随机推荐
- Django ValueError: HTTP status code must be an integer from 100 to 599.
程序执行后一直提示ValueError: HTTP status code must be an integer from 100 to 599. 遍历代码一切正常,然后开始调试代码,找出获取数据有问 ...
- Jmeter 之bzm- Concurrency Thread Group 压测
bzm- Concurrency Thread Group 并发线程组代替 jp@gc - Stepping Thread Group线程组. 1. 下载jmeter-plugins-manage ...
- ob-myfreemp3
网站 aHR0cDovL3Rvb2wubGl1bWluZ3llLmNuL211c2ljLw== 打开之后随便搜一个歌手的名字或歌曲(这里搜林俊杰) m/api/search,可以看到数据全在这里 全 ...
- 简单体验一个高性能,简单,轻量的ORM库- Dapper (无依赖其它库,非常方便高效)
步骤1)引入该ORM库. 使用Nuget搜索"Dapper"安装或者直接从github上下载源码 (https://github.com/StackExchange/Dapper ...
- Windows下的SSH Server
(请注意,本文内容以杂谈为主,稍微提及了一些在MobaXterm中开启SSH Server可能遇到的情况和解决方法,没有多少干货,请酌情查看,谢谢) 最近比较无聊,使用MobaXterm,无聊翻看里面 ...
- Flutter异常监控 - 伍 | 关于异常监控框架设计的思考
前言 最近阅读 Catcher.BugSnag.Rollbar 三个 Flutter 异常监控开源框架,文章链接如下: Flutter 异常监控 - 壹 | 从 Zone 说起 Flutter 异常监 ...
- Asp-Net-Core-管道VS过滤器
title: Asp.Net Core底层源码剖析(二)过滤器 date: 2022-09-18 10:41:57 categories: 后端 tags: - .NET 正文 Asp.Net Cor ...
- 目标检测+双目测距——基于yolov5
效果 测试例子1 输入: 左图 右图 输出: 测试例子2 输入: 左图 右图 输出: 测试例子3 输入: 左图 右图 输出: 核心代码 基于yolov5-6.1版本和双目测距+点云--使用Middle ...
- Svelte框架实现表格协同文档
首先,从框架搭建上,本篇示例采用当下流行的前后端分离的开发方式,前端使用npm作为脚手架搭建Svelte框架. 后端使用Java的SpringBoot作为后端框架. 首先,介绍下在前端Svelte框架 ...
- 初探富文本之OT协同实例
初探富文本之OT协同实例 在前边初探富文本之OT协同算法一文中我们探讨了为什么需要协同.为什么仅有原子化的操作并不能实现协同.为什么要有操作变换.如何进行操作变换.什么时候能够应用操作.服务端如何进行 ...