参考链接:apache kafka系列之在zookeeper中存储结构  http://blog.csdn.net/lizhitao/article/details/23744675

1.topic注册信息

/brokers/topics/[topic] :

存储某个topic的partitions所有分配信息

Schema:
 

{
    "version": "版本编号目前固定为数字1",
    "partitions": {
        "partitionId编号": [
            同步副本组brokerId列表
        ],
        "partitionId编号": [
            同步副本组brokerId列表
        ],
        .......
    }
}

 
Example:
{
"version": 1,
"partitions": {
"0": [1, 2],
"1": [2, 1],
"2": [1, 2],
}
}
说明:紫红色为patitions编号,蓝色为同步副本组brokerId列表

2.partition状态信息

/brokers/topics/[topic]/partitions/[0...N]  其中[0..N]表示partition索引号

/brokers/topics/[topic]/partitions/[partitionId]/state

Schema:
 

{
"controller_epoch": 表示kafka集群中的中央控制器选举次数,
"leader": 表示该partition选举leader的brokerId,
"version": 版本编号默认为1,
"leader_epoch": 该partition leader选举次数,
"isr": [同步副本组brokerId列表]
}

 
 
Example:
 

{
"controller_epoch": 1,
"leader": 2,
"version": 1,
"leader_epoch": 0,
"isr": [2, 1]
}

 

3. Broker注册信息

/brokers/ids/[0...N]

每个broker的配置文件中都需要指定一个数字类型的id(全局不可重复),此节点为临时znode(EPHEMERAL)

  1. Schema:
  2.  
  3. {
  4. "jmx_port": jmx端口号,
  5. "timestamp": kafka broker初始启动时的时间戳,
  6. "host": 主机名或ip地址,
  7. "version": 版本编号默认为1,
  8. "port": kafka broker的服务端端口号,由server.properties中参数port确定
  9. }
  10.  
  11. Example:
  12.  
  13. {
  14. "jmx_port": 6061,
  15. "timestamp":"1403061899859"
  16. "version": 1,
  17. "host": "192.168.1.148",
  18. "port": 9092
  19. }
 

4. Controller epoch:

/controller_epoch -> int (epoch)

此值为一个数字,kafka集群中第一个broker第一次启动时为1,以后只要集群中center controller中央控制器所在broker变更或挂掉,就会重新选举新的center controller,每次center controller变更controller_epoch值就会 + 1;

5. Controller注册信息:

/controller -> int (broker id of the controller)  存储center controller中央控制器所在kafka broker的信息

  1. Schema:
  2.  
  3. {
  4. "version": 版本编号默认为1,
  5. "brokerid": kafka集群中broker唯一编号,
  6. "timestamp": kafka broker中央控制器变更时的时间戳
  7. }
  8.  
  9. Example:
  10.  
  11. {
  12. "version": 1,
  13. "brokerid": 3,
  14. "timestamp": "1403061802981"
  15. }
Consumer and Consumer group概念: 
 

Consumer均衡算法
当一个group中,有consumer加入或者离开时,会触发partitions均衡.均衡的最终目的,是提升topic的并发消费能力.
1) 假如topic1,具有如下partitions: P0,P1,P2,P3
2) 加入group中,有如下consumer: C0,C1
3) 首先根据partition索引号对partitions排序: P0,P1,P2,P3
4) 根据(consumer.id + '-'+ thread序号)排序: C0,C1
5) 计算倍数: M = [P0,P1,P2,P3].size / [C0,C1].size,本例值M=2(向上取整)
6) 然后依次分配partitions: C0 = [P0,P1],C1=[P2,P3],即Ci = [P(i * M),P((i + 1) * M -1)]

a.每个consumer客户端被创建时,会向zookeeper注册自己的信息;
b.此作用主要是为了"负载均衡".
c.同一个Consumer Group中的Consumers,Kafka将相应Topic中的每个消息只发送给其中一个Consumer。
d.Consumer Group中的每个Consumer读取Topic的一个或多个Partitions,并且是唯一的Consumer;
e.一个Consumer group的多个consumer的所有线程依次有序地消费一个topic的所有partitions,如果Consumer group中所有consumer总线程大于partitions数量,则会出现空闲情况;

举例说明:
kafka集群中创建一个topic为report-log 4 partitions 索引编号为0,1,2,3
假如有目前有三个消费者node:注意-->一个consumer中一个消费线程可以消费一个或多个partition.
如果每个consumer创建一个consumer thread线程,各个node消费情况如下,node1消费索引编号为0,1分区,node2费索引编号为2,node3费索引编号为3
如果每个consumer创建2个consumer thread线程,各个node消费情况如下(是从consumer node先后启动状态来确定的),node1消费索引编号为0,1分区;node2费索引编号为2,3;node3为空闲状态

总结:

从以上可知,Consumer Group中各个consumer是根据先后启动的顺序有序消费一个topic的所有partitions的。

如果Consumer Group中所有consumer的总线程数大于partitions数量,则可能consumer thread或consumer会出现空闲状态。

6. Consumer注册信息:

每个consumer都有一个唯一的ID(consumerId可以通过配置文件指定,也可以由系统生成),此id用来标记消费者信息.

/consumers/[groupId]/ids/[consumerIdString]

是一个临时的znode,此节点的值为请看consumerIdString产生规则,即表示此consumer目前所消费的topic + partitions列表.

consumerId产生规则:

  1. StringconsumerUuid = null;
  2. if(config.consumerId!=null && config.consumerId)
  3. consumerUuid = consumerId;
  4. else {
  5. String uuid = UUID.randomUUID()
  6. consumerUuid = "%s-%d-%s".format(
  7. InetAddress.getLocalHost.getHostName, System.currentTimeMillis,
  8. uuid.getMostSignificantBits().toHexString.substring(0,8));
  9. }
  10. String consumerIdString = config.groupId + "_" + consumerUuid;
  1. Schema:
  2.  
  3. {
  4.   "version": 版本编号默认为1,
  5.   "subscription": { //订阅topic列表
  6.     "topic名称": consumertopic消费者线程数
  7.   },
  8.   "pattern": "static",
  9.   "timestamp": "consumer启动时的时间戳"
  10. }
  11.  
  12. Example:
  13. {
  14.   "version": 1,
  15.   "subscription": {
  16.     "open_platform_opt_push_plus1": 5
  17.   },
  18.   "pattern": "static",
  19.   "timestamp": "1411294187842"
  20. }

7. Consumer owner:

/consumers/[groupId]/owners/[topic]/[partitionId] -> consumerIdString + threadId索引编号

当consumer启动时,所触发的操作:

a) 首先进行"Consumer Id注册";

b) 然后在"Consumer id 注册"节点下注册一个watch用来监听当前group中其他consumer的"退出"和"加入";只要此znode path下节点列表变更,都会触发此group下consumer的负载均衡.(比如一个consumer失效,那么其他consumer接管partitions).

c) 在"Broker id 注册"节点下,注册一个watch用来监听broker的存活情况;如果broker列表变更,将会触发所有的groups下的consumer重新balance.

8. Consumer offset:

/consumers/[groupId]/offsets/[topic]/[partitionId] -> long (offset)

用来跟踪每个consumer目前所消费的partition中最大的offset

此znode为持久节点,可以看出offset跟group_id有关,以表明当消费者组(consumer group)中一个消费者失效,

重新触发balance,其他consumer可以继续消费.

9. Re-assign partitions

/admin/reassign_partitions

  1. {
  2. "fields":[
  3. {
  4. "name":"version",
  5. "type":"int",
  6. "doc":"version id"
  7. },
  8. {
  9. "name":"partitions",
  10. "type":{
  11. "type":"array",
  12. "items":{
  13. "fields":[
  14. {
  15. "name":"topic",
  16. "type":"string",
  17. "doc":"topic of the partition to be reassigned"
  18. },
  19. {
  20. "name":"partition",
  21. "type":"int",
  22. "doc":"the partition to be reassigned"
  23. },
  24. {
  25. "name":"replicas",
  26. "type":"array",
  27. "items":"int",
  28. "doc":"a list of replica ids"
  29. }
  30. ],
  31. }
  32. "doc":"an array of partitions to be reassigned to new replicas"
  33. }
  34. }
  35. ]
  36. }
  37.  
  38. Example:
  39. {
  40. "version": 1,
  41. "partitions":
  42. [
  43. {
  44. "topic": "Foo",
  45. "partition": 1,
  46. "replicas": [0, 1, 3]
  47. }
  48. ]
  49. }

10. Preferred replication election

/admin/preferred_replica_election

例子

  1. {
  2. "fields":[
  3. {
  4. "name":"version",
  5. "type":"int",
  6. "doc":"version id"
  7. },
  8. {
  9. "name":"partitions",
  10. "type":{
  11. "type":"array",
  12. "items":{
  13. "fields":[
  14. {
  15. "name":"topic",
  16. "type":"string",
  17. "doc":"topic of the partition for which preferred replica election should be triggered"
  18. },
  19. {
  20. "name":"partition",
  21. "type":"int",
  22. "doc":"the partition for which preferred replica election should be triggered"
  23. }
  24. ],
  25. }
  26. "doc":"an array of partitions for which preferred replica election should be triggered"
  27. }
  28. }
  29. ]
  30. }
  31.  
  32. 例子:
  33.  
  34. {
  35. "version": 1,
  36. "partitions":
  37. [
  38. {
  39. "topic": "Foo",
  40. "partition": 1
  41. },
  42. {
  43. "topic": "Bar",
  44. "partition": 0
  45. }
  46. ]
  47. }

11. 删除topics

/admin/delete_topics

例子

  1. Schema:
  2. { "fields":
  3. [ {"name": "version", "type": "int", "doc": "version id"},
  4. {"name": "topics",
  5. "type": { "type": "array", "items": "string", "doc": "an array of topics to be deleted"}
  6. } ]
  7. }
  8.  
  9. 例子:
  10. {
  11. "version": 1,
  12. "topics": ["foo", "bar"]
  13. }

Topic配置

/config/topics/[topic_name]

例子

  1. {
  2. "version": 1,
  3. "config": {
  4. "config.a": "x",
  5. "config.b": "y",
  6. ...
  7. }
  8. }

 请注明转载自:http://blog.csdn.NET/lizhitao/article/details/23744675

kafka笔记-Kafka在zookeeper中的存储结构【转】的更多相关文章

  1. kafka在zookeeper中的存储结构

    参考site:http://kafka.apache.org/documentation.html#impl_zookeeper 1.zookeeper客户端相关命令 在确保zookeeper服务启动 ...

  2. Twitter Storm源代码分析之ZooKeeper中的目录结构

    徐明明博客:Twitter Storm源代码分析之ZooKeeper中的目录结构 我们知道Twitter Storm的所有的状态信息都是保存在Zookeeper里面,nimbus通过在zookeepe ...

  3. (续)一个demo弄清楚位图在内存中的存储结构

    本来续---数字图像处理之位图在计算机中的存储结构一文,通过参考别人的代码,进行修改和测试终于成功运行. 该实例未使用任何API和相关类,相信如果对此实例能够完全理解那么将有进一步进行数字图像处理的能 ...

  4. Prometheus时序数据库-内存中的存储结构

    Prometheus时序数据库-内存中的存储结构 前言 笔者最近担起了公司监控的重任,而当前监控最流行的数据库即是Prometheus.按照笔者打破砂锅问到底的精神,自然要把这个开源组件源码搞明白才行 ...

  5. Prometheus时序数据库-磁盘中的存储结构

    Prometheus时序数据库-磁盘中的存储结构 前言 之前的文章里,笔者详细描述了监控数据在Prometheus内存中的结构.而其在磁盘中的存储结构,也是非常有意思的,关于这部分内容,将在本篇文章进 ...

  6. Kafka学习之路 (五)Kafka在zookeeper中的存储

    一.Kafka在zookeeper中存储结构图 二.分析 2.1 topic注册信息 /brokers/topics/[topic] : 存储某个topic的partitions所有分配信息 [zk: ...

  7. Kafka(四)Kafka在zookeeper中的存储

    一 Kafka在zookeeper中存储结构图 二 分析 2.1 topic注册信息 /brokers/topics/[topic] : 存储某个topic的partitions所有分配信息 [zk: ...

  8. 【Java数据结构学习笔记之一】线性表的存储结构及其代码实现

    应用程序后在那个的数据大致有四种基本的逻辑结构: 集合:数据元素之间只有"同属于一个集合"的关系 线性结构:数据元素之间存在一个对一个的关系 树形结构:数据元素之间存在一个对多个关 ...

  9. apache kafka系列之在zookeeper中存储结构

    1.topic注册信息 /brokers/topics/[topic] : 存储某个topic的partitions所有分配信息 Schema:   {    "version": ...

随机推荐

  1. 在Mapper中进行循环判断

    1.在Bo中将值保存在list中

  2. linux —— 学习笔记(文件、文件夹操作)

    目录:1.常用的文件文件夹操作 2.文件属性的设置 1.常用的文件文件夹操作 mkdir  创建文件夹 -p 如果指定 a/b/c 时 a .b 不存在,一起创建出来 cp       复制文件或文件 ...

  3. XML认识

    XML概念 XML是eXtensible Markup Langguage 缩写,称之为可扩展标记语言.XML 被设计用来传输和存储数据.与HTML不同的是: HTML被设计用来显示数据,其焦点是数据 ...

  4. 你能在windows上创建一个叫做AUX的文件夹吗?

    Windows的文件名不能有如下这些特殊符号,这个大家都比较熟悉了. < (less than) > (greater than) : (colon) " (double quo ...

  5. Sencha Touch 的基础知识

    基础知识 一.要注意书写,一个字母就会让你代码跑不起来Ext.setup({ icon:'icon.png', glossOnIcon:false, tabletStartupScreen:'talb ...

  6. ssss

    18:15 2013/6/18 未结束的事情1 应用API接口切换2 03in.com 项目管理授权 软件中不成功3 党校考核时间 段列出所有 10:51 2013/6/20 daili 应用修改1 ...

  7. codechef Cleaning Up 解决问题的方法

    After a long and successful day of preparing food for the banquet, it is time to clean up. There is ...

  8. java获取计算机硬件参数

    public class HardWareUtils { /**   *   * 获取主板序列号   *   *   *   * @return   */ public static String g ...

  9. jQuery循环给某个ID赋值

    1.id名为sl的input框循环赋值 $("input[id=sl]").each(function(){alert(this.value) })

  10. ASP.NET Boilerplate 工作单元

    从上往下说起,框架使用castle拦截器,拦截实现了IApplication.IRepository接口的所有方法,和使用了UnitOfWork 特性的方法,代码如下 internal class U ...