1 kafka架构进阶

1.1 Kafka底层数据的同步机制(面试常问)

1、Kafka的Topic被分为多个分区,分区是是按照Segments(文件段)存储文件块。分区日志是存储在磁盘上的日志序列,Kafka可以保证分区里的事件是有序的。其中Leader负责对应分区的读写、Follower负责同步分区的数据,0.11 版本之前Kafka使用highwatermarker机制保证数据的同步,但是基于highwatermarker的同步数据可能会导致数据的不一致或者是乱序。在Kafka数据同步有以下概念。

2、LEO:log end offset 标识的是每个分区中最后一条消息的下一个位置,分区的每个副本都有自己的LEO.

3、HW: high watermarker称为高水位线,所有HW之前的的数据都理解是已经备份的,当所有节点都备 份成功,Leader会更新水位线。

4、ISR:In-sync-replicas,kafka的leader会维护一份处于同步的副本集,如果在replica.lag.time.max.ms时间内系统没有发送fetch请求,或者已然在发送请求,但是在该限定时间内没有赶上Leader的数据就被剔除ISR列表。在Kafka-0.9.0版本剔除replica.lag.max.messages消息个数限定,因为这个会导致其他的Broker节点频繁的加入和退出ISR。即如果某个从机总是赶不上leader的leo,该节点在达到限制时间后,会被剔除isr列表

1.1.1 高水位截断的同步方式可能带来数据丢失(Kafka 0.11版本前的问题)

场景1丢数据: B为leader,A同步B的数据,同步到m1之后,A宕机重启,A恢复后B宕机,B的m2没人同步,B宕机后zk选举A为leader。此时A只有m1的数据,B恢复后,同步A的数据,此时m2会丢失。

场景2数据不一致:开始B为leader,写入了两条数据m1和m2。A同步B的数据只同步到m1时,A和B同时宕机。A启动恢复的快一点,选举A为leader,此时有用户往A中写了一条m3,A的水位线变为1,当B启动后,B为fowller。B检查自己的水位线也是1,不会被截断。产生高水位相同,但是数据不一致的问题

为了避免这个问题,建议把Kafka的版本升级到kafka-0.11+版本

1.1.2 解决高水位截断数据丢失和不一致问题(leaderEpoch)

可以看出0.11版本之前Kafka的副本备份机制的设计存在问题。依赖HW的概念实现数据同步,但是存在数据不一致问题和丢失数据问题,因此Kafka-0.11版本引入了 Leader Epoch解决这个问题,不在使用HW作为数据截断的依据。而是已引入了Leader epoch的概念,任意一个Leader持有一个LeaderEpoch。该LeaderEpoch这是一个由Controller管理的32位数字,存储在Zookeeper的分区状态信息中,并作为LeaderAndIsrRequest的一部分传递给每个新的Leader。Leader接受Producer请求数据上使用LeaderEpoch标记每个Message。然后,该LeaderEpoch编号将通过复制协议传播,并用于替换HW标记,作为消息截断的参考点。

生产者发送给leader消息,都会存下来每条消息的leader epoch。所有从机同步leader数据的时候,都会同步一份leaderrEpoch存下来。leaderEpoch中存储了重新选取哪个机器作为leader的信息等

改进消息格式,以便每个消息集都带有一个4字节的Leader Epoch号。在每个日志目录中,会创建一个新的Leader Epoch Sequence文件,在其中存储Leader Epoch的序列和在该Epoch中生成的消息的Start Offset。它也缓存在每个副本中,也缓存在内存中。

follower变成Leader

当Follower成为Leader时,它首先将新的Leader Epoch和副本的LEO添加到Leader Epoch Sequence序列文件的末尾并刷新数据。给Leader产生的每个新消息集都带有新的“Leader Epoch”标记。

Leader变成Follower

如果需要需要从本地的Leader Epoch Sequence加载数据,将数据存储在内存中,给相应的分区的Leader发送epoch 请求,该请求包含最新的EpochID,StartOffset信息.Leader接收到信息以后返回该EpochID所对应的LastOffset信息。该信息可能是最新EpochID的StartOffset或者是当前EpochID的Log End Offset信息.

  • 情形1:Fllower的Offset比Leader的小

  • 情形2:用户的Leader Epoch的信息startOffset信息比Leader返回的LastOffset要大,Follower回去重置自己的Leader Epoch文件,将Offset修改为Leader的LastOffset信息,并且截断自己的日志信息

Follower在提取过程中,如果关注者看到的LeaderEpoch消息集大于其最新的LeaderEpoch,则会在其LeaderEpochSequence中添加新的LeaderEpoch和起始偏移量,并将Epoch数据文件刷新到磁盘。同时将Fetch的日志信息刷新到本地日志文件。

1.1.3 LeaderEpoch解决数据丢失

1.1.4 LeaderEpoch解决数据不一致

1.2 kafka监控之Kafka-Eagle

1.2.1 Kafka-Eagle安装

源码地址:github.com/smartloli/kafka-eagle

下载地址: download.kafka-eagle.org

这是一个监视系统,监视您的kafka群集以及可视的使用者线程,偏移量,所有者等。当您安装Kafka Eagle时,用户可以看到当前的使用者组,对于每个组,他们正在消耗的Topic以及该组在每个主题中的偏移量,滞后,日志大小和位置。这对于了解用户从消息队列消耗的速度以及消息队列增加的速度很有用。

  1. [root@CentOSB ~]# tar -zxf kafka-eagle-web-1.4.0-bin.tar.gz -C /usr/
  2. [root@CentOSB ~]# mv /usr/kafka-eagle-web-1.4.0 /usr/kafka-eagle
  3. [root@CentOSB ~]# vi .bashrc
  4. KE_HOME=/usr/kafka-eagle
  5. JAVA_HOME=/usr/java/latest
  6. PATH=$PATH:$JAVA_HOME/bin:$KE_HOME/bin
  7. CLASSPATH=.
  8. export JAVA_HOME
  9. export PATH
  10. export CLASSPATH
  11. export KE_HOME
  12. [root@CentOSB ~]# source .bashrc
  13. [root@CentOSB ~]# cd /usr/kafka-eagle/
  14. [root@CentOSB kafka-eagle]# vi conf/system-config.properties
  15. kafka.eagle.zk.cluster.alias=cluster1
  16. cluster1.zk.list=CentOSA:2181,CentOSB:2181,CentOSC:2181
  17. cluster1.kafka.eagle.offset.storage=kafka
  18. kafka.eagle.metrics.charts=true
  19. kafka.eagle.driver=com.mysql.jdbc.Driver
  20. kafka.eagle.url=jdbc:mysql://192.168.52.1:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
  21. kafka.eagle.username=root
  22. kafka.eagle.password=root
  23. [root@CentOSB kafka-eagle]# chmod u+x bin/ke.sh
  24. [root@CentOSB kafka-eagle]# ./bin/ke.sh start

如果需要检测Kafka性能指标需要修改Kafka启动文件

  1. vi kafka-server-start.sh
  2. ...
  3. if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
  4. export KAFKA_HEAP_OPTS="-server -Xms2G -Xmx2G -XX:PermSize=128m -XX:+UseG1GC -XX:MaxGCPauseMillis=200 -XX:ParallelGCThreads=8 -XX:ConcGCThreads=5 -XX:InitiatingHeapOccupancyPercent=70"
  5. export JMX_PORT="9999"
  6. #export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
  7. fi

可视化操作和监控kafka集群状态

1.3 Kafka-Flume集成

flume也是日志采集器,类似于elk中的logstash。通过flume采集过来的数据,一方面我们可以把数据写入hdfs,我们也可以把采集的数据写入到mq当中,例如kafka,kafka在写入到主流的流处理中。

组件1:r1-采集组件,测试使用netcat

组件2:k1-输出组件

组件3:c1-缓存组件,测试使用内存做缓冲

flume提供了kafka集成方案,在flume中添加kafka的配置信息即可

  • jdk8+环境,准备flume的安装包,安装flume

参考 flume.apache.org 官方文档

tar -zxf apache-flume-1.9.0-bin.tar.gz -C /usr/

cd /usr/apache-flume-1.9.0-bin

vi conf/kafka.properties


  1. # Name the components on this agent
  2. a1.sources = r1
  3. a1.sinks = k1
  4. a1.channels = c1
  5. # Describe/configure the source
  6. a1.sources.r1.type = netcat
  7. a1.sources.r1.bind = CentOS
  8. a1.sources.r1.port = 44444
  9. # Describe the sink
  10. a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
  11. a1.sinks.k1.kafka.topic = topic01
  12. a1.sinks.k1.kafka.bootstrap.servers = CentOSA:9092,CentOSB:9092,CentOSC:9092
  13. a1.sinks.k1.kafka.flumeBatchSize = 20
  14. a1.sinks.k1.kafka.producer.acks = -1
  15. a1.sinks.k1.kafka.producer.linger.ms = 100
  16. a1.sinks.k1.kafka.producer.compression.type = snappy
  17. # Use a channel which buffers events in memory
  18. a1.channels.c1.type = memory
  19. a1.channels.c1.capacity = 1000
  20. a1.channels.c1.transactionCapacity = 100
  21. # Bind the source and sink to the channel
  22. a1.sources.r1.channels = c1
  23. a1.sinks.k1.channel = c1

  1. a1.sources = r1
  2. a1.sinks = k1
  3. a1.channels = c1
  4. a1.sources.r1.type = avro
  5. a1.sources.r1.bind = CentOS
  6. a1.sources.r1.port = 44444
  7. a1.channels.c1.type = memory
  8. a1.channels.c1.capacity = 10000
  9. a1.channels.c1.transactionCapacity = 10000
  10. a1.channels.c1.byteCapacityBufferPercentage = 20
  11. a1.channels.c1.byteCapacity = 800000
  12. a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
  13. a1.sinks.k1.kafka.topic = topic01
  14. a1.sinks.k1.kafka.bootstrap.servers = CentOS:9092
  15. a1.sinks.k1.kafka.flumeBatchSize = 20
  16. a1.sinks.k1.kafka.producer.acks = -1
  17. a1.sinks.k1.kafka.producer.linger.ms = 1
  18. a1.sinks.k1.kafka.producer.compression.type = snappy
  19. a1.sources.r1.channels = c1
  20. a1.sinks.k1.channel = c1

1.4 Kafka-SpringBoot集成

  • 依赖引入(pom.xml)
  1. <parent>
  2. <groupId>org.springframework.boot</groupId>
  3. <artifactId>spring-boot-starter-parent</artifactId>
  4. <version>2.1.5.RELEASE</version>
  5. </parent>
  6. <dependencies>
  7. <dependency>
  8. <groupId>org.springframework.boot</groupId>
  9. <artifactId>spring-boot-starter</artifactId>
  10. </dependency>
  11. <dependency>
  12. <groupId>org.springframework.kafka</groupId>
  13. <artifactId>spring-kafka</artifactId>
  14. </dependency>
  15. <!--测试-->
  16. <dependency>
  17. <groupId>org.springframework.boot</groupId>
  18. <artifactId>spring-boot-starter-test</artifactId>
  19. <scope>test</scope>
  20. </dependency>
  21. </dependencies>
  • 配置(application.properties)
  1. # 连接
  2. spring.kafka.bootstrap-servers=CentOSA:9092,CentOSB:9092,CentOSC:9092
  3. # 重试次数
  4. spring.kafka.producer.retries=5
  5. # 开启应答
  6. spring.kafka.producer.acks=all
  7. # 缓冲区大小
  8. spring.kafka.producer.batch-size=16384
  9. spring.kafka.producer.buffer-memory=33554432
  10. # 事务控制,开启后KafkaTemplate发送消息,要处于事务控制中@Transation
  11. spring.kafka.producer.transaction-id-prefix=transaction-id-
  12. spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
  13. spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
  14. # 开启幂等
  15. spring.kafka.producer.properties.enable.idempotence=true
  16. spring.kafka.consumer.group-id=group1
  17. spring.kafka.consumer.auto-offset-reset=earliest
  18. spring.kafka.consumer.enable-auto-commit=true
  19. spring.kafka.consumer.auto-commit-interval=100
  20. spring.kafka.consumer.properties.isolation.level=read_committed
  21. spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
  22. spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
  • 配置日志
  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <configuration>
  3. <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
  4. <encoder>
  5. <pattern>%p %d{yyyy-MM-dd HH:mm:ss} - %m%n</pattern>
  6. <charset>UTF-8</charset>
  7. </encoder>
  8. </appender>
  9. <!-- 控制台输出日志级别 -->
  10. <root level="ERROR">
  11. <appender-ref ref="STDOUT" />
  12. </root>
  13. <logger name="org.springframework.kafka" level="INFO" additivity="false">
  14. <appender-ref ref="STDOUT" />
  15. </logger>
  16. <!--事务控制-->
  17. <logger name="org.springframework.kafka.transaction" level="debug" additivity="false">
  18. <appender-ref ref="STDOUT" />
  19. </logger>
  20. </configuration>
  • 集成后Spring后KafkaTemplate类专门用来发送数据
  1. @Transactional
  2. @Service
  3. public class OrderService implements IOrderService {
  4. @Autowired
  5. private KafkaTemplate kafkaTemplate;
  6. @Override
  7. public void saveOrder(String id,Object message) {
  8. //发送消息给服务器
  9. }
  10. }
  • 通过监听实现发送端到消息处理的转发
  1. @KafkaListeners(value = {@KafkaListener(topics = {"topic04"})})
  2. @SendTo(value = {"topic05"})
  3. public String listenner(ConsumerRecord<?, ?> cr) {
  4. return cr.value()+" mashibing edu";
  5. }
  • 开启事务后,KafkaTemplate发送消息的方式1
  1. kafkaTemplate.executeInTransaction(new KafkaOperation.OperationCallback<String, String, Object>(){
  2. @Override
  3. public Object doInOperations(KafkaOperation<String,String> kafkaOperations) {
  4. kafkaOperations.send(new ProducerRecord<String,String>("topic02", "002", "this is value"));
  5. return null;
  6. }
  7. });
  • 开启事务后,KafkaTemplate发送消息的方式2

发送方法外,加上Spring的@Transation注解

《Kafka笔记》4、Kafka架构,与其他组件集成的更多相关文章

  1. Kafka(一)Kafka的简介与架构

    一.简介 1.1 概述 Kafka是最初由Linkedin公司开发,是一个分布式.分区的.多副本的.多订阅者,基于zookeeper协调的分布式日志系统(也可以当做MQ系统),常见可以用于web/ng ...

  2. Kafka剖析:Kafka背景及架构介绍

    <Kafka剖析:Kafka背景及架构介绍> <Kafka设计解析:Kafka High Availability(上)> <Kafka设计解析:Kafka High A ...

  3. Storm相关笔记(包括Kafka和HBase)

    一.Apache Kafka 1.了解Kafka 1.1.Kafka是什么?有什么用? 是什么? 1) Apache Kafka 是一个消息队列(生产者消费者模式) 2) Apache Kafka 目 ...

  4. Kafka笔记整理(一)

    Kafka简介 消息队列(Message Queue) 消息 Message 网络中的两台计算机或者两个通讯设备之间传递的数据.例如说:文本.音乐.视频等内容. 队列 Queue 一种特殊的线性表(数 ...

  5. 完整的ELK+filebeat+kafka笔记

    之前有写过elasticsearch集群和elk集群的博客, 都是基于docker的,使用docker-compose进行编排(K8S暂未掌握) 三台服务器搭建es集群:https://www.cnb ...

  6. 图解 Kafka 超高并发网络架构演进过程

    阅读本文大约需要 30 分钟. 大家好,我是 华仔, 又跟大家见面了. 上一篇作为专题系列的第一篇,我们深度剖析了关于 Kafka 存储架构设计的实现细节,今天开启第二篇,我们来深度剖析下「Kafka ...

  7. 基于Flume+LOG4J+Kafka的日志采集架构方案

    本文将会介绍如何使用 Flume.log4j.Kafka进行规范的日志采集. Flume 基本概念 Flume是一个完善.强大的日志采集工具,关于它的配置,在网上有很多现成的例子和资料,这里仅做简单说 ...

  8. 《Apache kafka实战》读书笔记-管理Kafka集群安全之ACL篇

    <Apache kafka实战>读书笔记-管理Kafka集群安全之ACL篇 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 想必大家能看到这篇博客的小伙伴,估计你对kaf ...

  9. Kafka笔记整理(三):消费形式验证与性能测试

    Kafka消费形式验证 前面的<Kafka笔记整理(一)>中有提到消费者的消费形式,说明如下: .每个consumer属于一个consumer group,可以指定组id.group.id ...

  10. kafka实时流数据架构

    初识kafka https://www.cnblogs.com/wenBlog/p/9550039.html 简介 Kafka经常用于实时流数据架构,用于提供实时分析.本篇将会简单介绍kafka以及它 ...

随机推荐

  1. oracle使用impdp和expdp导入导出数据

    1. 导出数据 开始导出数据前,要创建一个directory,因为导入时需要指定directory,导出的dump文件和日志会保存在该directory对应的目录下 SQL> create di ...

  2. Python推导式(列表推导式、元组推导式、字典推导式和集合推导式)

    列表表达式 a_range = range(10) # 对a_range执行for表达式 a_list = [x * x for x in a_range] # a_list集合包含10个元素 pri ...

  3. Java JVM启动参数

    转载于:https://www.cnblogs.com/w-wfy/p/6415856.html java启动参数共分为三类其一是标准参数(-),所有的JVM实现都必须实现这些参数的功能,而且向后兼容 ...

  4. Docker 容器化部署 Python 应用

    Docker 是一个开源项目,为开发人员和系统管理员提供了一个开放平台,可以将应用程序构建.打包为一个轻量级容器,并在任何地方运行.Docker 会在软件容器中自动部署应用程序. 在本篇中,我将介绍如 ...

  5. 【Processing-日常4】等待动画2

    之前在CSDN上发表过: https://blog.csdn.net/fddxsyf123/article/details/79781034

  6. 破晓行动----带你总结JVM的知识大全(二)

    JVM运行时内存 + 垃圾回收与算法

  7. spark 四种模式

    Spark 三种运行模式  一:Spark On Local     此种模式下,我们只需要在安装Spark时不进行hadoop和Yarn的环境配置,只要将Spark包解压即可使用,运行时Spark目 ...

  8. Hbuilder获取手机当前地理位置的天气

    前言:前面一段时间,公司项目里有一个需求 是获取当前手机地理位置当天的天气情况  将实时天气信息提供给客户.在网上搜索资料时候,发现知识很零碎,自己实现以后整理出来,方便于各位的学习与使用. 一.获取 ...

  9. 【typedef】Type definitions 自定义类型

  10. MySQL系列:Docker安装 MySQL提示错误:Access denied for user'root'@'localhost' (using password:yes)

    问题: 解决方法: 在my.conf文件里配置 [mysqld] skip-grant-tables