Python Kafka Client 性能测试
一、前言
由于工作原因使用到了 Kafka,而现有的代码并不能满足性能需求,所以需要开发高效读写 Kafka 的工具,本文是一个 Python Kafka Client 的性能测试记录,通过本次测试,可以知道选用什么第三方库的性能最高,选用什么编程模型开发出来的工具效率最高。
二、第三方库性能测试
1.第三方库
此次测试的是三个主要的 Python Kafka Client:pykafka、kafka-python 和 confluent-kafka,具体介绍见官网:
- pykafka:https://pypi.org/project/pykafka/
- kafka-python:https://pypi.org/project/kafka-python/
- confluent_kafka:https://pypi.org/project/confluent-kafka/
2.测试环境
此次测试使用的 Python 版本是2.7,第三方库的版本为:
- pykafka:2.8.0
- kafka-python:2.0.2
- confluent-kafka:1.5.0
使用的数据总量有50万,每条数据大小为2KB,总共为966MB。
3.测试过程
(1)Kafka Producer 测试
分别使用 pykafka、kafka-python 和 confluent-kafka 实例化一个 Kafka 的 Producer 对象,然后调用相应的 produce 方法将数据推送给 Kafka,数据总条数为50万,比较三个库所耗费的时间,并计算每秒钟可以推送的数据条数和大小,比较得出性能最优的。
代码示例(以 pykafka 为例):
1 import sys
2 from datetime import datetime
3 from pykafka import KafkaClient
4
5
6 class KafkaProducerTool():
7 def __init__(self, broker, topic):
8 client = KafkaClient(hosts=broker)
9 self.topic = client.topics[topic]
10 self.producer = self.topic.get_producer()
11
12 def send_msg(self, msg):
13 self.producer.produce(msg)
14
15
16 if __name__ == '__main__':
17 producer = KafkaProducerTool(broker, topic)
18 print(datetime.now())
19 for line in sys.stdin:
20 producer.send_msg(line.strip())
21 producer.producer.stop()
22 print(datetime.now())
(2)Kafka Consumer 测试
分别使用 pykafka、kafka-python 和 confluent-kafka 实例化一个 Kafka 的 Consumer 对象,然后调用相应的 consume 方法从 Kafka 中消费数据,要消费下来的数据总条数为50万,比较三个库所耗费的时间,并计算每秒钟可以消费的数据条数和大小,比较得出性能最优的。
代码示例(以 pykafka 为例):
1 from datetime import datetime
2 from pykafka import KafkaClient
3
4
5 class KafkaConsumerTool():
6 def __init__(self, broker, topic):
7 client = KafkaClient(hosts=broker)
8 self.topic = client.topics[topic]
9 self.consumer = self.topic.get_simple_consumer()
10
11 def receive_msg(self):
12 count = 0
13 print(datetime.now())
14 while True:
15 msg = self.consumer.consume()
16 if msg:
17 count += 1
18 if count == 500000:
19 print(datetime.now())
20 return
21
22
23 if __name__ == '__main__':
24 consumer = KafkaConsumerTool(broker, topic)
25 consumer.receive_msg()
26 consumer.consumer.stop()
4.测试结果
- Kafka Producer 测试结果:
| 总耗时/秒 | 每秒数据量/MB | 每秒数据条数 | |
| confluent_kafka | 35 | 27.90 | 14285.71 |
| pykafka | 50 | 19.53 | 10000 |
| kafka-python | 532 | 1.83 | 939.85 |
- Kafka Consumer 测试结果:
| 总耗时/秒 | 每秒数据量/MB | 每秒数据条数 | |
| confluent_kafka | 39 | 25.04 | 12820.51 |
| kafka-python | 52 | 18.78 | 9615.38 |
| pykafka | 335 | 2.92 | 1492.54 |
5.测试结论
经过测试,在此次测试的三个库中,生产消息的效率排名是:confluent-kafka > pykafka > kafka-python,消费消息的效率排名是:confluent-kafka > kafka-python > pykafka,由此可见 confluent-kafka 的性能是其中最优的,因而选用这个库进行后续开发。
三、多线程模型性能测试
1.编程模型
经过前面的测试已经知道 confluent-kafka 这个库的性能是很优秀的了,但如果还需要更高的效率,应该怎么办呢?当单线程(或者单进程)不能满足需求时,我们很容易想到使用多线程(或者多进程)来增加并发提高效率,考虑到线程的资源消耗比进程少,所以打算选用多线程来进行开发。那么多线程消费 Kafka 有什么实现方式呢?我想到的有两种:
- 一个线程实现一个 Kafka Consumer,最多可以有 n 个线程同时消费 Topic(其中 n 是该 Topic 下的分区数量);

- 多个线程共用一个 Kafka Consumer,此时也可以实例化多个 Consumer 同时消费。

对比这两种多线程模型:
- 模型1实现方便,可以保证每个分区有序消费,但 Partition 数量会限制消费能力;
- 模型2并发度高,可扩展能力强,消费能力不受 Partition 限制。
2.测试过程
(1)多线程模型1
测试代码:
1 import time
2 from threading import Thread
3 from datetime import datetime
4 from confluent_kafka import Consumer
5
6
7 class ChildThread(Thread):
8 def __init__(self, name, broker, topic):
9 Thread.__init__(self, name=name)
10 self.con = KafkaConsumerTool(broker, topic)
11
12 def run(self):
13 self.con.receive_msg()
14
15
16 class KafkaConsumerTool:
17 def __init__(self, broker, topic):
18 config = {
19 'bootstrap.servers': broker,
20 'session.timeout.ms': 30000,
21 'auto.offset.reset': 'earliest',
22 'api.version.request': False,
23 'broker.version.fallback': '2.6.0',
24 'group.id': 'test'
25 }
26 self.consumer = Consumer(config)
27 self.topic = topic
28
29 def receive_msg(self):
30 self.consumer.subscribe([self.topic])
31 print(datetime.now())
32 while True:
33 msg = self.consumer.poll(timeout=30.0)
34 print(msg)
35
36
37 if __name__ == '__main__':
38 thread_num = 10
39 threads = [ChildThread("thread_" + str(i + 1), broker, topic) for i in range(thread_num)]
40
41 for i in range(thread_num):
42 threads[i].setDaemon(True)
43 for i in range(thread_num):
44 threads[i].start()
因为我使用的 Topic 共有8个分区,所以我分别测试了线程数在5个、8个和10个时消费50万数据所需要的时间,并计算每秒可消费的数据条数。
(2)多线程模型2
测试代码:
1 import time
2 from datetime import datetime
3 from confluent_kafka import Consumer
4 from threadpool import ThreadPool, makeRequests
5
6
7 class KafkaConsumerTool:
8 def __init__(self, broker, topic):
9 config = {
10 'bootstrap.servers': broker,
11 'session.timeout.ms': 30000,
12 'auto.offset.reset': 'earliest',
13 'api.version.request': False,
14 'broker.version.fallback': '2.6.0',
15 'group.id': 'mini-spider'
16 }
17 self.consumer = Consumer(config)
18 self.topic = topic
19
20 def receive_msg(self, x):
21 self.consumer.subscribe([self.topic])
22 print(datetime.now())
23 while True:
24 msg = self.consumer.poll(timeout=30.0)
25 print(msg)
26
27
28 if __name__ == '__main__':
29 thread_num = 10
30 consumer = KafkaConsumerTool(broker, topic)
31 pool = ThreadPool(thread_num)
32 for r in makeRequests(consumer.receive_msg, [i for i in range(thread_num)]):
33 pool.putRequest(r)
34 pool.wait()
主要使用 threadpool 这个第三方库来实现线程池,此处当然也可以使用其他库来实现,这里我分别测试了线程数量在5个和10个时消费50万数据所需要的时间,并计算每秒可消费的数据条数。
3.测试结果
- 多线程模型1
| 总数据量/万 | 线程数量 | 总耗时/秒 | 每秒数据条数 |
| 50 | 5 | 27 | 18518.51 |
| 50 | 8 | 24 | 20833.33 |
| 50 | 10 | 26 | 19230.76 |
- 多线程模型2
| 总数据量/万 | 线程数量 | 总耗时/秒 | 每秒数据条数 |
| 50 | 5 | 17 | 29411.76 |
| 50 | 10 | 13 | 38461.53 |
4.测试结论
使用多线程可以有效提高 Kafka 的 Consumer 消费数据的效率,而选用线程池共用一个 KafkaConsumer 的消费方式的消费效率更高。
Python Kafka Client 性能测试的更多相关文章
- python kafka client--confluent-kafka-python
项目中需要使用python 向Kafka生产和消费数据,最初使用pykafka .后来发现pykafka不支持client.id. 最后,终于找到confluent-kafka. python kaf ...
- Windbg调优Kafka.Client内存泄露
从来没写过Blog,想想也是,工作十多年了,搞过N多的架构.技术,不与大家分享实在是可惜了.另外,从传统地ERP行业转到互联网,也遇到了很所前所未有的问题,原来知道有一些坑,但是不知道坑太多太深.借着 ...
- .net Kafka.Client多个Consumer Group对Topic消费不能完全覆盖研究总结(一)
我们知道Kafka支持Consumer Group的功能,但是最近在应用Consumer Group时发现了一个Topic 的Partition不能100%覆盖的问题. 程序部署后,发现Kafka在p ...
- .net Kafka.Client多个Consumer Group对Topic消费不能完全覆盖研究总结(二)
依据Partition和Consumer的Rebalance策略,找到Kafka.Client Rebalance代码块,还原本地环境,跟踪调试,发现自定义Consumer Group 的Consum ...
- golang kafka client
针对golang的 kafka client 有很多开源package,例如sarama, confluent等等.在使用sarama 包时,高并发中偶尔遇到crash.于是改用confluent-k ...
- mac虚拟机搭建自动化环境-wda和python wda client
尽量升级Xcode到最新版,保持iPhone的版本大于9.3 1.安装webDriverAgent到ios真机 从github上下载代码:git clone https://github.com/fa ...
- python kafka权限校验client.id
kafka集群有权限校验,在连接时需要加入client.id.但pykafka不能配置该选项.搜索了一下,需要使用confluent-kafka 链接: https://blog.csdn.net/l ...
- ReferenceError: weakly-referenced object no longer exists Python kafka
Python存入kafka报错,ReferenceError: weakly-referenced object no longer exists. Exception in thread 14: p ...
- Python技术栈性能测试工具Locust入门
Locust是一款Python技术栈的开源的性能测试工具.Locust直译为蝗虫,寓意着它能产生蝗虫般成千上万的并发用户: Locust并不小众,从它Github的Star数量就可见一斑: 截止文章写 ...
随机推荐
- Angular:惰性加载的模块
①通过ng new angular-module创建一个全新的angular应用,默认不选路由 ②通过一下命令分别创建2个模块和1个组件 ng g m hx1 ng g c hx1 ng g m hx ...
- C++异常之六 异常处理的基本思想
异常处理的基本思想 C++的异常处理机制使得异常的引发和异常的处理不必在同一个函数中,这样低沉的函数可以着重解决具体问题,而不必过多的考虑异常的处理.上层调用者可以再适当的位置设计对不同类型异常的处理 ...
- IDEA 2020.3 更新了,机器学习都整上了
Hello,大家好,我是楼下小黑哥~ 上周 Java 开发申请神器 IDEA 2020.3 新版正式发布: 小黑哥第一时间就在开发机上更新了新版本,并且完整体验了两周了. 下面介绍一下这个版本的主要功 ...
- [水题日常]Luogu1113 杂务
这几天又在颓. 我的blog难度目前还比较低,主要面向像我这样子的新手(当然内容也会尽量讲得具体清楚一些)x 如果有错误还请指出~ 写完随笔之后才去翻了一下这题题解之后才注意到这题是有序的 QAQ完全 ...
- 个人微信公众号搭建Python实现 -个人公众号搭建-被动回复消息建模(14.3.2)
@ 目录 1.阅读官方文档 2.思考 关于作者 1.阅读官方文档 点击进入微信官方开发者文档 接收普通消息 文本消息 图片消息 语言消息 视频消息 小视频消息 地理位置消息 链接消息 接收事件消息 关 ...
- 个人微信公众号搭建Python实现 -个人公众号搭建-构想(14.3.1)
@ 目录 1.需求 2.怎么做 关于作者 1.需求 个人便捷工具 2.怎么做 针对个人未认证订阅号拥有以下权限 以及微信网页的一些权限,但是由于开发微信网页有限制 可定制功能只有被动回复,以及这个素材 ...
- 关于 ReentrantLock 中锁 lock() 和解锁 unlock() 的底层原理浅析
关于 ReentrantLock 中锁 lock() 和解锁 unlock() 的底层原理浅析 如下代码,当我们在使用 ReentrantLock 进行加锁和解锁时,底层到底是如何帮助我们进行控制的啦 ...
- 浅析Linux 64位系统虚拟地址和物理地址的映射及验证方法
虚拟内存 先简单介绍一下操作系统中为什么会有虚拟地址和物理地址的区别.因为Linux中有进程的概念,那么每个进程都有自己的独立的地址空间. 现在的操作系统都是64bit的,也就是说如果在用户态的进程中 ...
- 快速理解Python异步编程的基本原理
第一个例子 假设你需要用电饭煲煮饭,用洗衣机洗衣服,给朋友打电话让他过来吃饭.其中,电饭煲需要30分钟才能把饭煮好,洗衣机需要40分钟才能把衣服洗好,朋友需要50分钟才能到你家.那么,是不是你需要在这 ...
- Neighbour-Joining (NJ算法)
clc;clear all;close all; Distance = [0,2,4,6,6,8; 2,0,4,6,6,8; 4,4,0,6,6,8; 6,6,6,0,4,8; 6,6,6,4,0,8 ...