python-kafka实现produce与consumer
1.python-kafka:
api送上:https://kafka-python.readthedocs.io/en/latest/apidoc/KafkaConsumer.html
2.实现一个broker、topic可配置的生产者与消费者:
#coding=utf-8 import time
import logging
import sys
import json
import etc.config as conf
sys.path.append('***********/kafka-python-1.3.3')
from kafka import KafkaProducer
from kafka import KafkaConsumer
from kafka.errors import KafkaError
from kafka import TopicPartition def log_name():
base_name = conf.kafka_logDir
date = time.strftime('%Y%m%d',time.localtime(time.time())) + '.log'
return base_name + date logging.basicConfig(level=logging.DEBUG,
format='%(asctime)-15s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s',
datefmt='%Y-%m-%d %H:%M:%S',
filename=log_name(),
filemode='a'
)
console = logging.StreamHandler()
console.setLevel(logging.INFO)
logging.getLogger('').addHandler(console) class kfkProducer(object): # producer = None def __init__(self, broker, kafkaPort, kafkaTopic=''):
self._broker = broker
self._kafkaPort = kafkaPort
self._kafkaTopic = kafkaTopic def __str__(self):
logging.info("--------------------------------")
logging.info("kafka-producer params ...")
logging.info("[KAFKA-BROKER]:%s" %self._broker)
logging.info("[KAFKA-PORT]:%s" %self._kafkaPort)
logging.info("[KAFKA-TOPIC]:%s" %self._kafkaTopic)
logging.info("--------------------------------") def registerKfkProducer(self):
try:
producer = KafkaProducer(bootstrap_servers = '{kafka_host}:{kafka_port}'.format(
kafka_host=self._broker,
kafka_port=self._kafkaPort
))
except KafkaError as e:
logging.info(e)
return producer def produceMsg(self, topic, msg, partition=0):
# 自动将输入字符串转化为json格式,产出消息
if(topic in ('', None)):
logging.error("topic is None, plz check!")
else:
try:
# parmas_message = json.dumps(msg)#转化为json格式
producer = self.registerKfkProducer()
producer.send(topic, value=msg, partition=partition)
producer.flush()
# time.sleep(1)
except KafkaError as e:
logging.info(e) class kfkConsumer(object): # consumer = None def __init__(self, broker, kafkaPort, kafkaTopic=''):
self._broker = broker
self._kafkaPort = kafkaPort
self._kafkaTopic = kafkaTopic def __str__(self):
logging.info("--------------------------------")
logging.info("kafka-consumer params ...")
logging.info("[KAFKA-BROKER]:%s" %self._broker)
logging.info("[KAFKA-PORT]:%s" %self._kafkaPort)
logging.info("[KAFKA-TOPIC]:%s" %self._kafkaTopic)
logging.info("--------------------------------") def registerConsumer(self):
try:
consumer = KafkaConsumer(
bootstrap_servers=[self._broker+':'+self._kafkaPort],
auto_offset_reset='earliest')
except KafkaError as e:
logging.info(e)
return consumer def consumerMsg(self, topic, partition=0):
if(topic in ('', None)):
logging.error("topic is None, plz check!")
else:
try:
v_consumer = self.registerConsumer()
v_consumer.assign([TopicPartition(topic,partition)])
# self.registerConsumer.subscribe([self._kafkaTopic])
for message in v_consumer:
# message value and key are raw bytes -- decode if necessary!
# e.g., for unicode: `message.value.decode('utf-8')
logging.info("%s:%d:%d: msg=%s" % (message.topic, message.partition,
message.offset, message.value.decode('utf-8')))
except KafkaError as e:
logging.info(e)
3.实现命令行输入topic和partition,即可生产消息:
#coding=utf-8 import os
import sys
import json
import etc.config as conf
from PykafkaMgr import kfkProducer #从json文件获取消息
def getMsgFromJsonfile(filePath):
if(not os.path.isfile(filePath)):
print(u"[%s] 输入的json文件路径有误,请检查..." %filePath)
else:
with open(filePath) as json_file:
return json.load(json_file) def except4v():
if(len(sys.argv) <= 1):
print(u"未输入topic和partition!\n你可以--help查看具体使用方法...")
elif(sys.argv[1].startswith("--")):
option = sys.argv[1][2:]
# print(option)
if(option in ("version", "Version")):
print("Version 1.0 \nPython 2.7.3 (default, Nov 6 2015, 14:11:14) \
\n[GCC 4.4.7 20120313 (Red Hat 4.4.7-4)] on linux2")
elif(option == "help"):
print(u"produceMsg.py 接收两个参数, 第一个是topic, 第二个是partition \neg:python produceMsg.py test 0 \n向topic名为test第0分区生产消息") def calcMsg(jsonMsg):
sumMsg, sumAcct = 0, 0
msgNum = len(jsonMsg)
print("------------------------------------------")
for i in range(msgNum):
acct_num = len(jsonMsg[i]["MSGBODY"])
print(u"第[%d]条消息,包含ACCT_ID账户数:[%d]个"%(i+1, acct_num))
sumMsg = i+1
sumAcct += acct_num
acct_num = 0
print(u"本次生产消息总共[%d]条, 总共账户数:[%d]个"%(sumMsg, sumAcct))
print("------------------------------------------") if __name__ == '__main__': except4v() if(len(sys.argv) == 3):
topic = sys.argv[1]
partition = int(sys.argv[2])
produce = kfkProducer(conf.kafka_mgr["broker"], conf.kafka_mgr["port"], topic)
produce.__str__()
jsonMsg = getMsgFromJsonfile(conf.kafka_produce)
for i in range(len(jsonMsg)):
produce.produceMsg(topic, ('%s'%jsonMsg[i]).encode('utf-8'), partition)
calcMsg(jsonMsg)
4.设置两个配置文件:
第一个是config.py
#coding=utf-8 #broker配置还有一种方式是:kafka_mgr={"broker":'ip1:port,ip2:port,...,ipn:port'},就是改为kafka集群,不过代码要稍微作调整(参数列表改下就行了)。当然配置两种,通过一个开关去控制也可以。自选
kafka_mgr = {
"broker" : '10.***.***.***',
"port" : 6667,
} kafka_logDir = r"/*******/log/****" #生产者输入json文件
kafka_produce = r"/**********/data/input/produceMsg.json"
生产者输入json文件:
produceMsg.json
json文件附上说明,具体可以按照说明配置 hi, welcome here~ produceMsg.json
=================================
输入json格式数据,作为生产者消息的输入。
1.支持多条json数据输入。格式如下:
[
json1,
json2,
...,
jsonN
]
总体结构是:[ , ] 2.此json文件不能加注释,因为会破坏json文件格式,导致无法解析
3.输入只要是json格式,不需要关注是不是一行或多行,多换行、空格等都不影响解析
消费者也是利用以上两个配置文件去实现即可。此处代码略
python-kafka实现produce与consumer的更多相关文章
- Python Kafka Client 性能测试
一.前言 由于工作原因使用到了 Kafka,而现有的代码并不能满足性能需求,所以需要开发高效读写 Kafka 的工具,本文是一个 Python Kafka Client 的性能测试记录,通过本次测试, ...
- python kafka client--confluent-kafka-python
项目中需要使用python 向Kafka生产和消费数据,最初使用pykafka .后来发现pykafka不支持client.id. 最后,终于找到confluent-kafka. python kaf ...
- .net Kafka.Client多个Consumer Group对Topic消费不能完全覆盖研究总结(二)
依据Partition和Consumer的Rebalance策略,找到Kafka.Client Rebalance代码块,还原本地环境,跟踪调试,发现自定义Consumer Group 的Consum ...
- Kafka客户端Producer与Consumer
Kafka客户端Producer与Consumer 一.pom.xml 二.相关配置文件 producer.properties log4j.properties base.properties 三. ...
- ReferenceError: weakly-referenced object no longer exists Python kafka
Python存入kafka报错,ReferenceError: weakly-referenced object no longer exists. Exception in thread 14: p ...
- SpringBoot整合kafka(实现producer和consumer)
本文代码使用的是Spring Boot 2.1.8.RELEASE 版本 <parent> <groupId>org.springframework.boot</grou ...
- Kafka的Producer和Consumer源码学习
先解释下两个概念: high watermark (HW) 它表示已经被commited的最后一个message offset(所谓commited, 应该是ISR中所有replica都已写入),HW ...
- Kafka的Producer以及Consumer远程调用问题
公司需要分布式的JMS,所以研究了Kafka,之前在本地都没有出现问题,但是在服务器上布Kafka的时候发现了消费者无法消费的问题. kafka布到一台服务器上面,由于业务原因,producer和ka ...
- 设计Kafka的High Level Consumer
原文:https://cwiki.apache.org/confluence/display/KAFKA/Consumer+Group+Example 为什么使用High Level Consumer ...
随机推荐
- 对TCP三次握手四次分手还不清楚的速度进,超简单解析,明白了就很好记!
关于TCP三次握手四次分手,之前看资料解释的都很笼统,很多地方都不是很明白,所以很难记,前几天看的一个博客豁然开朗,可惜现在找不到了.现在把之前的疑惑总结起来,方便一下大家. 先上个TCP三次握手和四 ...
- Shiro报错-[org.apache.shiro.mgt.AbstractRememberMeManager] - There was a failure while trying to retrieve remembered principals.
2017-04-08 11:55:33,010 WARN [org.apache.shiro.mgt.AbstractRememberMeManager] - There was a failure ...
- 箱型图boxplot函数的使用
主要参数: medlwd:设置中位线宽度 whiskcol:设置虚线颜色 staplecol:设置顶端颜色 outcol:离群值颜色 相应的具体位置: outline=FALSE:去除离群值 outp ...
- PAT1117. Eddington Number
思路:搞懂题意是关键–E满足有共有E天骑车的距离超过E米,求最大的E! 将数组排序,我们假设最大的E是e,e满足条件有e天骑车超过e米,并且e+1不满足有e+1天骑车超过e+1米.那么我们可以逆序统计 ...
- typeahead + JDK 8 并行流 + redis 高速即时查询.
感谢JDK8,让我们JAVA 程序员暂时不用担心失业. 有些情况,需要根据用户输入值,即时查询数据库,MYSQL显然不再适合这种业务. mongoDB看似最适合,但是为了这么一个破功能,也不值得特意去 ...
- ThinkPad W500 清灰记录
转载请注明出处:HateMath归来(http://www.cnblogs.com/hatemath/) 看型号就知道,这是一台英雄迟暮型的老电脑.到了夏天,启动后啥事不做,通风口都烫手.心情好,一时 ...
- flask项目开发中,遇到http 413错误
在flask项目中,上传文件时后台报http 413 Request Entity Too Large 请求体太大错误! 解决的2种方法: 1.在flask配置中设置 MAX_CONTENT_LENG ...
- linux yum源配置及vim运用
redhat7默认没有yum模板,需要自己创建[root@localhost ~]# mount /dev/cdrom /root/iso/(挂载镜像)mount: /dev/sr0 写保护,将以只读 ...
- calendar中set方法和静态属性带来的坑
坑在哪里: 在我之前接触的一个项目中涉及到这么一项功能:每天00:00:00把某些数据移动到mongodb数据库的另一个集合中,也就是关系型数据库的表中.这个集合名是一个固定的名称加上当前的两个月前的 ...
- 用vlc搭建简单流媒体服务器(UDP和TCP方式)
.UDP(legacy)传统模式 .RTP方式 .RTSP方式 RTSP方式是通过RTP进行流媒体数据的传输的,VLC的实现也是基于UDP的.这种方式网上的参考资料比较多,我就不截图了,直接叙述命令行 ...