Kafka是什么

Kafka是最初由Linkedin公司开发,是一个分布式、分区的、多副本的、多订阅者,基于zookeeper协调的分布式日志系统(也可以当做MQ系统),常见可以用于web/nginx日志、访问日志,消息服务等等,Linkedin于2010年贡献给了Apache基金会并成为顶级开源项目。

1.前言

一个商业化消息队列的性能好坏,其文件存储机制设计是衡量一个消息队列服务技术水平和最关键指标之一。
下面将从Kafka文件存储机制和物理结构角度,分析Kafka是如何实现高效文件存储,及实际应用效果。

2.Kafka文件存储机制

Kafka部分名词解释如下:

  • Broker:消息中间件处理结点,一个Kafka节点就是一个broker,多个broker可以组成一个Kafka集群。
  • Topic:一类消息,例如page view日志、click日志等都可以以topic的形式存在,Kafka集群能够同时负责多个topic的分发。
  • Partition:topic物理上的分组,一个topic可以分为多个partition,每个partition是一个有序的队列。
  • Segment:partition物理上由多个segment组成,下面2.2和2.3有详细说明。
  • offset:每个partition都由一系列有序的、不可变的消息组成,这些消息被连续的追加到partition中。partition中的每个消息都有一个连续的序列号叫做offset,用于partition唯一标识一条消息.

分析过程分为以下4个步骤:

  • topic中partition存储分布
  • partiton中文件存储方式
  • partiton中segment文件存储结构
  • 在partition中如何通过offset查找message

通过上述4过程详细分析,我们就可以清楚认识到kafka文件存储机制的奥秘。

2.1 topic中partition存储分布

假设实验环境中Kafka集群只有一个broker,xxx/message-folder为数据文件存储根目录,在Kafka broker中server.properties文件配置(参数log.dirs=xxx/message-folder),例如创建2个topic名称分别为report_push、launch_info, partitions数量都为partitions=4
存储路径和目录规则为:

  1. xxx/message-folder
  2.  
  3. |--report_push-
  4. |--report_push-
  5. |--report_push-
  6. |--report_push-
  7. |--launch_info-
  8. |--launch_info-
  9. |--launch_info-
  10. |--launch_info-

在Kafka文件存储中,同一个topic下有多个不同partition,每个partition为一个目录,partiton命名规则为topic名称+有序序号,第一个partiton序号从0开始,序号最大值为partitions数量减1。
如果是多broker分布情况,请参考kafka集群partition分布原理分析

2.2 partiton中文件存储方式

下面示意图形象说明了partition中文件存储方式:

  1. 1
  • 每个partion(目录)相当于一个巨型文件被平均分配到多个大小相等segment(段)数据文件中。但每个段segment file消息数量不一定相等,这种特性方便old segment file快速被删除。
  • 每个partiton只需要支持顺序读写就行了,segment文件生命周期由服务端配置参数决定。

这样做的好处就是能快速删除无用文件,有效提高磁盘利用率。

2.3 partiton中segment文件存储结构

读者从2.2节了解到Kafka文件系统partition存储方式,本节深入分析partion中segment file组成和物理结构。

  • segment file组成:由2大部分组成,分别为index file和data file,此2个文件一一对应,成对出现,后缀".index"和“.log”分别表示为segment索引文件、数据文件.
  • segment文件命名规则:partion全局的第一个segment从0开始,后续每个segment文件名为上一个segment文件最后一条消息的offset值。数值最大为64位long大小,19位数字字符长度,没有数字用0填充。

下面文件列表是笔者在Kafka broker上做的一个实验,创建一个topicXXX包含1 partition,设置每个segment大小为500MB,并启动producer向Kafka broker写入大量数据,如下图2所示segment文件列表形象说明了上述2个规则:

  1. 2

以上述图2中一对segment file文件为例,说明segment中index<—->data file对应关系物理结构如下:

  1. 3

上述图3中索引文件存储大量元数据,数据文件存储大量消息,索引文件中元数据指向对应数据文件中message的物理偏移地址。
其中以索引文件中元数据3,497为例,依次在数据文件中表示第3个message(在全局partiton表示第368772个message)、以及该消息的物理偏移地址为497。

从上述图3了解到segment data file由许多message组成,下面详细说明message物理结构如下:

  1. 4

参数说明:

关键字 解释说明
8 byte offset 在parition(分区)内的每条消息都有一个有序的id号,这个id号被称为偏移(offset),它可以唯一确定每条消息在parition(分区)内的位置。即offset表示partiion的第多少message
4 byte message size message大小
4 byte CRC32 用crc32校验message
1 byte “magic" 表示本次发布Kafka服务程序协议版本号
1 byte “attributes" 表示为独立版本、或标识压缩类型、或编码类型。
4 byte key length 表示key的长度,当key为-1时,K byte key字段不填
K byte key 可选
value bytes payload 表示实际消息数据。

2.4 在partition中如何通过offset查找message

例如读取offset=368776的message,需要通过下面2个步骤查找。

  • 第一步查找segment file
    上述图2为例,其中00000000000000000000.index表示最开始的文件,起始偏移量(offset)为0.第二个文件00000000000000368769.index的消息量起始偏移量为368770 = 368769 + 1.同样,第三个文件00000000000000737337.index的起始偏移量为737338=737337 + 1,其他后续文件依次类推,以起始偏移量命名并排序这些文件,只要根据offset **二分查找**文件列表,就可以快速定位到具体文件。
    当offset=368776时定位到00000000000000368769.index|log

  • 第二步通过segment file查找message
    通过第一步定位到segment file,当offset=368776时,依次定位到00000000000000368769.index的元数据物理位置和00000000000000368769.log的物理偏移地址,然后再通过00000000000000368769.log顺序查找直到offset=368776为止。

从上述图3可知这样做的优点,segment index file采取稀疏索引存储方式,它减少索引文件大小,通过mmap可以直接内存操作,稀疏索引为数据文件的每个对应message设置一个元数据指针,它比稠密索引节省了更多的存储空间,但查找起来需要消耗更多的时间。

3 Kafka文件存储机制–实际运行效果

实验环境:

  • Kafka集群:由2台虚拟机组成
  • cpu:4核
  • 物理内存:8GB
  • 网卡:千兆网卡
  • jvm heap: 4GB
  • 详细Kafka服务端配置及其优化请参考:kafka server.properties配置详解

  1. 5

从上述图5可以看出,Kafka运行时很少有大量读磁盘的操作,主要是定期批量写磁盘操作,因此操作磁盘很高效。这跟Kafka文件存储中读写message的设计是息息相关的。Kafka中读写message有如下特点:

写message

  • 消息从java堆转入page cache(即物理内存)。
  • 由异步线程刷盘,消息从page cache刷入磁盘。

读message

  • 消息直接从page cache转入socket发送出去。
  • 当从page cache没有找到相应数据时,此时会产生磁盘IO,从磁
    盘Load消息到page cache,然后直接从socket发出去

4.offset存储方式

  • 1、在kafka 0.9版本之后,kafka为了降低zookeeper的io读写,减少network data transfer,也自己实现了在kafka server上存储consumer,topic,partitions,offset信息将消费的 offset 迁入到了 Kafka 一个名为 __consumer_offsets 的Topic中。
  • 2、将消费的 offset 存放在 Zookeeper 集群中。
  • 3、将offset存放至第三方存储,如Redis, 为了严格实现不重复消费

下面分别说一下这三种存储方式的实现

4.1 __consumer_offsets [kafka]

  下面的代码案例实现了test这一topic的数据连续消费

  1. from kafka import KafkaConsumer
  2.  
  3. class KafkaStreamTest:
  4. '''
  5. This class consume all external Kafka topics'''
  6.  
  7. def __init__(self):
  8.  
  9. self.appName = "kafkatest"
  10.  
  11. self.kafkaHosts = "192.168.4.201:6667,192.168.4.231:6667"
  12. self.kafkaAutoOffsetReset = "largest"
  13. self._kafka_topic = "test"
  14.  
  15. def start(self):
  16. reload(sys)
  17. sys.setdefaultencoding('utf-8')
  18.  
  19. elogging.debug(self.appName, elogging.normalCID(), "receiver starting")
  20. consumer = KafkaConsumer('test', bootstrap_servers=['192.168.4.201:6667','192.168.4.231:6667'], enable_auto_commit=True, auto_offset_reset='earliest')
  21. #consumer = KafkaConsumer('test', bootstrap_servers=['192.168.4.201:6667', '192.168.4.231:6667'], auto_offset_reset='earliest')
  22. while True:
  23. # The definition of KafkaMessage:
  24. # KafkaMessage = namedtuple("KafkaMessage",
  25. # ["topic", "partition", "offset", "key", "value"])
  26. kafkaMsg = consumer.next()
  27.  
  28. # for debug
  29. print kafkaMsg.topic, kafkaMsg.partition, kafkaMsg.offset, kafkaMsg.key, kafkaMsg.value
  30.  
  31. if __name__ =="__main__":
  32. test = KafkaStreamTest()
  33. test.start()

enable_auto_commit (bool) – If True , the consumer’s offset will be periodically committed in the background. Default: True设置为true,表示offset自动托管到kafka内部的一个特定名称为__consumer_offsets的topic

auto_offset_reset:What to do when there is no initial offset in Kafka or if the current offset does not exist any more on the server (e.g. because that data has been deleted):

  • earliest: automatically reset the offset to the earliest offset
  • latest: automatically reset the offset to the latest offset

只有当offset不存在的时候,才用latest或者earliest

其他详细内容请参看

https://github.com/dpkp/kafka-python

https://kafka-python.readthedocs.io/en/master/apidoc/KafkaConsumer.html

https://stackoverflow.com/questions/35432326/how-to-get-latest-offset-for-a-partition-for-a-kafka-topic

Kafka 如何读取offset topic内容 (__consumer_offsets)

kafka 0.9.0.0 __consumer_offsets日志清理问题?

Kafka 0.10.2<auto.offset.reset和enable.auto.commit>

4.2 zookeeper

请参考

spark createDirectStream保存kafka offset

修改kafka topic的offset几种方法

4.3 Redis[推荐]

  1. import os
  2. import sys
  3. sys.path.append("..")
  4. sys.path.append(sys.argv[][:sys.argv[].rfind(os.path.join('com','ericsson'))])
  5.  
  6. import copy
  7. import traceback
  8. import redis
  9. from pyspark import SparkContext, SparkConf
  10. from pyspark.streaming import StreamingContext, DStream
  11. from pyspark.sql import SQLContext
  12. import simplejson as json
  13. from com.ericsson.analytics.fms.common.common import ELogForDistributedApp,getSqlContextInstance
  14. from pyspark.streaming.kafka import KafkaUtils,TopicAndPartition
  15. from com.ericsson.analytics.oamf.client.logging import elogging
  16. from com.ericsson.analytics.fms.common.common import HDFSOperation
  17.  
  18. class KafkaStreamTest:
  19. '''
  20. This class consume all external Kafka topics, store the data into Parquet and send the data to internal Kafka topics
  21. '''
  22.  
  23. def __init__(self):
  24.  
  25. self.appName = "kafkatest"
  26.  
  27. self.kafkaHosts = "192.168.4.201:6667,192.168.4.231:6667"
  28. self.kafkaAutoOffsetReset = "largest"
  29. self.kafka_offset_redis_db =
  30. self._kafka_topic = "test"
  31. self.redisHost = "192.168.4.231"
  32. self.redisPort =
  33.  
  34. self.spark_batch_duration =
  35.  
  36. def createStreamingContext(self, sc):
  37. ssc = StreamingContext(sc, self.spark_batch_duration)
  38. ds = self.getDStreamFromKafka(ssc)
  39. if ds is not None:
  40. elogging.info(self.appName, elogging.normalCID(), "Kafka succeeded to getting the data")
  41. return ssc, ds
  42. else:
  43. return None, None
  44.  
  45. def getDStreamFromKafka(self, ssc):
  46. kafkaParams = {"metadata.broker.list": self.kafkaHosts}
  47. elogging.debug(self.appName, elogging.normalCID(), kafkaParams)
  48.  
  49. sc = ssc.sparkContext
  50. dstream = None
  51. try:
  52. redisConn = self.getRedisConnection(self.kafka_offset_redis_db)
  53. if redisConn.exists(self.appName):
  54. elogging.debug(self.appName, elogging.normalCID(), "key " + self.appName + " exists in redis")
  55. fromOffset = {}
  56. offsetListStr = redisConn.get(self.appName)
  57. offsetList = eval(offsetListStr)
  58. for offset in offsetList:
  59. elogging.debug(self.appName, elogging.normalCID(), str(offset))
  60. topicPartion = TopicAndPartition(offset["topic"], offset["partition"])
  61. fromOffset[topicPartion] = offset["untilOffset"]
  62. dstream = KafkaUtils.createDirectStream(ssc, [self._kafka_topic], kafkaParams, fromOffset)
  63. else:
  64. kafkaParams = {"metadata.broker.list": self.kafkaHosts, "auto.offset.reset": self.kafkaAutoOffsetReset}
  65. elogging.debug(self.appName, elogging.normalCID(), "key " + self.appName + " doesn't exist in redis")
  66. dstream = KafkaUtils.createDirectStream(ssc, [self._kafka_topic], kafkaParams)
  67. except:
  68. traceInfo = traceback.format_exc()
  69. elogging.error(self.appName, elogging.faultCID(), "failed to create DStream : " + traceInfo)
  70.  
  71. return dstream
  72.  
  73. def getRedisConnection(self, redisDB):
  74. try:
  75. pool = redis.ConnectionPool(host=self.redisHost, port=self.redisPort, db=redisDB)
  76. redisConn = redis.Redis(connection_pool=pool)
  77. except:
  78. traceInfo = traceback.format_exc()
  79. elogging.error(self.appName, elogging.faultCID(), "failed to create DStream : " + traceInfo)
  80. return None
  81.  
  82. return redisConn
  83.  
  84. def getOffSetRangesFromRDD(self, rdd):
  85. try:
  86. offsetRanges = rdd.offsetRanges()
  87. except:
  88. traceInfo = traceback.format_exc()
  89. elogging.error(self.appName, elogging.faultCID(), "failed to call rdd.offsetRanges() function : " + traceInfo)
  90. return None
  91.  
  92. offsetList = []
  93. for offset in offsetRanges:
  94. offsetList.append({"topic": offset.topic, "partition": offset.partition, "fromOffset": offset.fromOffset,
  95. "untilOffset": offset.untilOffset})
  96.  
  97. elogging.info(self.appName, elogging.normalCID(), "getOffSetRangesFromRDD, offsetList: " + str(offsetList))
  98. return offsetList
  99.  
  100. def saveOffSetRangesToRedis(self, offsetList):
  101. redisConn = self.getRedisConnection(self.kafka_offset_redis_db)
  102. if redisConn is not None:
  103. redisConn.set(self.appName, offsetList)
  104. elogging.info(self.appName, elogging.normalCID(), "saveOffSetRangesToRedis, offsetList : " + str(offsetList))
  105.  
  106. def handleMessages(self, runTime, rdd):
  107. elogging.debug(self.appName, elogging.normalCID(), "========= %s =========" % str(runTime))
  108. offsetList = self.getOffSetRangesFromRDD(rdd)
  109. if offsetList is not None:
  110. self.saveOffSetRangesToRedis(offsetList)
  111.  
  112. rddFilter = rdd.map(lambda p: p[])
  113.  
  114. counts = rddFilter.flatMap(lambda line: line.split(" ")) \
  115. .map(lambda word: (word, )) \
  116. .reduceByKey(lambda a, b: a + b)
  117. sqlContext = getSqlContextInstance(rddFilter.context)
  118. if counts is not None:
  119. df = sqlContext.createDataFrame(counts)
  120. df.show()
  121.  
  122. def start(self):
  123. reload(sys)
  124. sys.setdefaultencoding('utf-8')
  125. sc = SparkContext(appName=self.appName)
  126. eloggingConfig = None
  127. try:
  128. eloggingConfig = HDFSOperation.getConfigFromHDFS(ELogForDistributedApp.LOGHDFSPATH, sc)
  129. elogging.initLogFromDict(eloggingConfig)
  130. except StandardError, se:
  131. pass
  132.  
  133. elogging.debug(self.appName, elogging.normalCID(), "receiver starting")
  134. configInfoStr = 'kafkaHosts:' + str(self.kafkaHosts) + ', kafkaAutoOffsetReset:' + str(self.kafkaAutoOffsetReset) + \
  135. ', kafka_offset_redis_db:' + str(self.kafka_offset_redis_db) + ', spark_batch_duration:' + str(self.spark_batch_duration) + \
  136. ', redisHost:' + str(self.redisHost) + ', redisPort:' + str(self.redisPort)
  137. elogging.info(self.appName, elogging.normalCID(), configInfoStr)
  138. ssc, newDS = self.createStreamingContext(sc)
  139. if newDS is not None:
  140. newDS.foreachRDD(self.handleMessages)
  141. ssc.start()
  142. elogging.debug(self.appName, elogging.normalCID(), "StreamingContext start")
  143. ssc.awaitTermination()
  144. elogging.debug(self.appName, elogging.normalCID(), "receiver end")
  145. else:
  146. traceInfo = traceback.format_exc()
  147. elogging.error(self.appName, elogging.faultCID(), "Failed to create DStream " + traceInfo)
  148.  
  149. if __name__ =="__main__":
  150. test = KafkaStreamTest()
  151. test.start()

5.总结

Kafka高效文件存储设计特点

  • Kafka把topic中一个parition大文件分成多个小文件段,通过多个小文件段,就容易定期清除或删除已经消费完文件,减少磁盘占用。
  • 通过索引信息可以快速定位message和确定response的最大大小。
  • 通过index元数据全部映射到memory,可以避免segment file的IO磁盘操作。
  • 通过索引文件稀疏存储,可以大幅降低index文件元数据占用空间大小。

参考

1.Linux Page Cache机制
2.Kafka官方文档

3.Kafka Offset Storage

Kafka文件存储机制及offset存取的更多相关文章

  1. Kafka文件存储机制及partition和offset

    转载自:  https://yq.aliyun.com/ziliao/65771 参考:  Kafka集群partition replication默认自动分配分析    如何为kafka选择合适的p ...

  2. kafka知识体系-kafka设计和原理分析-kafka文件存储机制

    kafka文件存储机制 topic中partition存储分布 假设实验环境中Kafka集群只有一个broker,xxx/message-folder为数据文件存储根目录,在Kafka broker中 ...

  3. Kafka文件存储机制那些事

    Kafka是什么 Kafka是最初由Linkedin公司开发,是一个分布式.分区的.多副本的.多订阅者,基于zookeeper协调的分布式日志系统(也可以当做MQ系统),常见可以用于web/nginx ...

  4. 转】 Kafka文件存储机制那些事

    原博文出自于:http://tech.meituan.com/kafka-fs-design-theory.html    感谢! Kafka是什么 Kafka是最初由Linkedin公司开发,是一个 ...

  5. Kafka 文件存储机制那些事 - 美团技术团队

    出处:https://tech.meituan.com/2015/01/13/kafka-fs-design-theory.html 自己总结: Kafka 文件存储机制_结构图:https://ww ...

  6. Kafka文件存储机制

    一.topic中partition存储分布 在本地的kafka中,我们只启动一个broker,创建两个topic:single-todo和single-todo-vip ,每个topic有两个part ...

  7. kafka学习之-文件存储机制

    Kafka是什么 Kafka是最初由Linkedin公司开发,是一个分布式.分区的.多副本的.多订阅者,基于zookeeper协调的分布式日志系统(也可以当做MQ系统),常见可以用于web/nginx ...

  8. kafka存储机制以及offset

    1.前言 一个商业化消息队列的性能好坏,其文件存储机制设计是衡量一个消息队列服务技术水平和最关键指标之一.下面将从Kafka文件存储机制和物理结构角度,分析Kafka是如何实现高效文件存储,及实际应用 ...

  9. 深入了解Kafka【二】工作流程及文件存储机制

    1.Kafka工作流程 Kafka中的消息以Topic进行分类,生产者与消费者都是面向Topic处理数据. Topic是逻辑上的概念,而Partition是物理上的概念,每个Partition分为多个 ...

随机推荐

  1. BZOJ.5290.[AHOI/HNOI2018]道路(树形DP)

    BZOJ LOJ 洛谷 老年退役选手,都写不出普及提高DP= = 在儿子那统计贡献,不是在父亲那统计啊!!!(这样的话不写这个提高DP写记忆化都能过= =) 然后就令\(f[x][a][b]\)表示在 ...

  2. 2017-9-8-李明Linux:Linux应用与发展

    1965年,MIT.通用电气&贝尔实验室联合开发分时操作系统Multics,没有项目管理概念和追求目标过于庞大导致项目失败:1969年,参加过该项目的贝尔实验室成员肯 ·汤普森对自己开发的游戏 ...

  3. Python应用——自定义函数:分割PDF文件函数

    案例 将一个 pdf 文件按要求分割为几个部分.比如说一个pdf有20页,分成5个pdf文件,每个pdf文件包含4页.设计函数实现? Python代码 from PyPDF2 import PdfFi ...

  4. 潭州课堂25班:Ph201805201 django 项目 第四十四课 项目部署 (课堂笔记)

    项目部署 稳定,并发,效益, 一.Django配置 1.settings.py配置 复制全局settings.py配置文件,创建一个副本命名为MyBlog/pro_settings.py,修改DEBU ...

  5. 潭州课堂25班:Ph201805201 django 项目 第二十九课 docker实例,文件下载前后台实现 (课堂笔记)

    docker 实例 :wq!保存退出 放入一个 html 文件 权限不够,加 sudo 查看本地仓库的 image 运行 docker -- name,后跟个运行名, -p 物理机端口映射到容器端口, ...

  6. BZOJ5103 : [POI2018]Róznorodno

    从上到下枚举上下底边,那么涉及两行的添加和删除. 首先预处理出对于每一列,每个位置添加和删除时,是否会对往下$k$个里出现这个颜色造成影响. 然后对于每种颜色维护一个长度为$m$的bitset,表示哪 ...

  7. Java 始终要覆盖toString

    java.lang.Object提供了toString方法的一个实现,它包含类的名称,以及一个“@”符号,接着是散列码的无符号十六进制表示法,例如“PhoneNumber@163b91”.在实际应用中 ...

  8. python gui 之 tkinter库

    http://blog.csdn.net/jcodeer?viewmode=contents http://tieba.baidu.com/p/3082739560 http://blog.sina. ...

  9. pygame-KidsCanCode系列jumpy-part11-角色动画(下)

    接上节继续,上节并没有处理向左走.向右走的动画效果,这节补上,看似很简单,但是有一些细节还是要注意: def jump(self): hits = pg.sprite.spritecollide(se ...

  10. delphi 设置多屏幕

    //poScreenCenter时,窗体会显示到主显示器的中央 MainForm.Position := poScreenCenter; function TGAEAMainForm.GetWorkA ...