《Kafka笔记》1、Kafka初识
一、初识Kafka
1 apache kafka简介
Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以收集并处理用户在网站中的所有动作流数据以及物联网设备的采样信息。
Apache Kafka是Apache软件基金会的开源的流处理平台,该平台提供了消息的订阅与发布的消息队列,一般用作系统间解耦、异步通信、削峰填谷等作用。同时Kafka又提供了Kafka streaming插件包实现了实时在线流处理。相比较一些专业的流处理框架不同,Kafka-Streaming计算是运行在应用端,具有简单、入门要求低、部署方便等优点。
- 消息队列Message Queue
- Kafka Streaming 流处理
2 消息中间件kafka的使用场景
2.1 订阅与发布队列
1、系统间解耦
2、异步通信
3、削峰填谷
2.2 流处理
1、Kafka streaming相比较于其他流处理框架,例如stom和spark,flink,kafka是应用在应用端的流处理。而stom,spark和flink都是运行在服务端的流处理框架。
2、所以kafak流,比stom,spark,flink的部署方便,运行的环境要求的比较低,同时无需开辟新的的服务器用来做流计算
3、所以kafka的流,被广泛应用在分布式,微服务领域
3 kafka对数据的管理形式
Message Queue : 消息队列
消息队列是一种在分布式和大数据开发中不可或缺的中间件。在分布式开发或者大数据开发中通常使用消息队列进行缓冲、系统间解耦和削峰填谷等业务场景,常见的消息队列工作模式大致会分为两大类:
至多一次:消息生产者将数据写入消息系统,然后由消费者负责去拉去消息服务器中的消息,一旦消息被确认消费之后 ,由消息服务器主动删除队列中的数据,这种消费方式一般只允许被一个消费者消费,并且消息队列中的数据不允许被重复消费,例如activeMQ。
没有限制:同上诉消费形式不同,生产者发布完数据以后,该消息可以被多个消费者同时消费,并且同一个消费者可以多次消费消息服务器中的同一个记录。主要是因为消息服务器一般可以长时间存储海量消息。每个消费者都有自己的偏移量。例如Kafka
4 kafka基础架构
1、Kafka集群(kafka往往通过多节点构成)以Topic形式负责分类集群中的Record(消息)每一个Record属于一个Topic。每个Topic底层都会对应一组分区的日志用于持久化Topic中的Record。
2、同时在Kafka集群中,Topic的每一个日志的分区都一定会有1个Borker(机器节点)担当该分区的Leader,其他的Broker担当该分区的follower,Leader负责分区数据的读写操作,follower负责同步改分区的数据。
3、这样如果分区的Leader宕机,该分区的其他follower会选取出新的leader继续负责该分区数据的读写。
4、每个分区也都有自己的副本(分区冗余相互备份)。
5、其中集群的中Leader的监控和Topic的部分元数据是存储在Zookeeper中.
6、生产者发送的消息,只属于一个topic。消费者可以订阅多个topic。一旦订阅者订阅的topic有数据产生,便可以fetch它
7、hash(key)%分区数:不仅能够使消息均匀的落入我们的分区中,而且还可以是相同的key落入到相同的分区
8、分区因子:表示我们的每个分区要在集群中存多少份
9、kafka中,所有的broker节点,既是某个分区的leader也可能是另外分区的follower。
10、如上图,如果broker-0宕机,zookeeper会检测到我们Topic01的partion0的leader宕机。会协调重新在broker-1和broker-2选择partion0的leader。节点broker-0恢复服务后,我们zk集群会重新协调分配
5 Kafka的主题(topics)和日志(logs)
5.1 消息发布端
1、Kafka中所有消息(record)是通过Topic为单位进行管理,每个Kafka中的Topic通常会有多个订阅者(也叫消费者),负责订阅发送到改Topic中的数据。Kafka负责管理集群中每个Topic的一组日志分区数据。
2、生产者将数据发布到相应的Topic。负责选择将哪个记录(消息)分发送到Topic中的哪个Partition。例如可以round-robin(轮询)方式完成此操作,然而这种仅是为了平衡负载。也可以根据某些语义分区功能(例如基于记录中的Key)进行此操作。
3、每组日志分区是一个有序的不可变的的日志序列(先进先出fifo),分区中的每一个Record都被分配了唯一的序列编号称为是offset(当前消息在序列中的位置),Kafka 集群会持久化所有发布到Topic中的Record信息,该Record的持久化的时间是通过配置文件指定,默认是168小时(7天)。log.retention.hours=168
5、Kafka底层会定期的检查日志文件,然后将过期的数据从log中移除,由于Kafka底层使用硬盘存储日志文件,因此使用Kafka长时间缓存一些日志文件是不存在问题的。
6、由于遵循分区策略,每个partion的数据并不是相同的,也并非全局有序的,既并非保证topic全局先进先出。每个分区内部是有序的,总体构成的我们生产者生产在这个topic的全集的数据。如果一定要保证在一个topic中全局有序,我们可以指定topic中的分区数为1个即可
7、每个分区,都有集群节点一个节点担任leader。那么如果要保证写入速度快,我们只需要增加topic中的分区数目即可。既增加分区可以提升kafka的写入性能
5.2 消息消费端
1、在消费者消费Topic中数据的时候,每个消费者会维护本次消费对应分区的偏移量,消费者会在消费完一个批次的数据之后,会将本次消费的偏移量提交给Kafka集群,因此对于每个消费者而言可以随意的控制改消费者的偏移量。因此在Kafka中,消费者可以从一个topic分区中的任意位置读取队列数据,由于每个消费者控制了自己的消费的偏移量,因此多个消费者之间彼此相互独立。消费者每次提交给kafka集群的偏移量,是该消费者下次需要读取的起始位置
2、Kafka中对Topic实现日志分区的有以下目的:
首先,它们允许日志扩展到超出单个服务器所能容纳的大小。每个单独的分区都必须适合托管它的服务器,但是一个Topic可能有很多分区,因此它可以处理任意数量的数据。
其次每个服务器充当其某些分区的Leader,也可能充当其他分区的Follwer,因此群集中的负载得到了很好的平衡。
6 生产者&消费者&消费者组
1、消费者使用Consumer Group名称标记自己,并且发布到Topic的每条记录都会传递到每个订阅Consumer Group中的一个消费者实例。如果所有Consumer实例都具有相同的Consumer Group,那么Topic中的记录会在该ConsumerGroup中的Consumer实例进行均分消费;如果所有Consumer实例具有不同的ConsumerGroup,则每条记录将广播到所有Consumer Group进程。
解释:对于kafka而言,只保证发送到topic中的每条消息,一定会发送到ConsumerGroup,但是到底发送给了ConsumerGroup的哪个Consumer消费者实例,取决于消费者实例的一些配置
2、更常见的是,我们发现Topic具有少量的Consumer Group,每个Consumer Group可以理解为一个“逻辑的订阅者”。每个Consumer Group均由许多Consumer实例组成,以实现可伸缩性和容错能力。这无非就是发布-订阅模型,其中订阅者是消费者的集群(消费者组)而不是单个进程。这种消费方式Kafka会将Topic按照分区的方式均分给一个Consumer Group下的实例,如果ConsumerGroup下有新的成员介入,则新介入的Consumer实例会去接管ConsumerGroup内其他消费者负责的某些分区,同样如果一下ConsumerGroup下的有其他Consumer实例宕机,则由改ConsumerGroup其他实例接管。
解释:同一个消费者组,只能均分分区消费,不能重复消费某一个分区,不管该组有多少个消费者。不同消费者组,互不影响。见下图
3、由于Kafka的Topic的分区策略,因此Kafka仅提供分区中记录的有序性,也就意味着相同Topic的不同分区记录之间无顺序。因为针对于绝大多数的大数据应用和使用场景, 使用分区内部有序或者使用key进行分区策略已经足够满足绝大多数应用场景。但是,如果您需要记录全局有序,则可以通过只有一个分区Topic来实现,尽管这将意味着每个ConsumerGroup只有一个Consumer进程,意味着我们会损伤kafka的高吞吐量。
解释:一般消费者组里面消费者的数目,不会大于分区数目。如果大于,那么会存在某个消费者不消费,浪费了资源。例如上图在消费者组B增加一个消费者c5,那么由于c1,c2,c3,c4已经安排好了,c5只能处于空闲状态。但是如果c1,c2,c3,c4的某台宕机,会有c5来接管
原则意义上讲,topic中的分区越多,我们定义消费者组中的消费者只需要保持一致,并行消费能力增强,就可以加快消费。本质还是加大topic中的分区数目。
所以增加kafka的topic中的分区数目,不仅仅可以增加我们的存储,写入能力。也可以间接增加我们并行消费topic的速度和能力
7 顺序写入和Zero-copy(高性能之道)
7.1 写入性能提升之道(顺序写和mmap)
1、Kafka的特性之一就是高吞吐率,但是Kafka的消息是保存或缓存在磁盘上的,一般认为在磁盘上读写数据是会降低性能的,但是Kafka即使是普通的服务器,Kafka也可以轻松支持每秒百万级的写入请求,超过了大部分的消息中间件,这种特性也使得Kafka在日志处理等海量数据场景广泛应用。Kafka会把收到的消息都写入到硬盘中,防止丢失数据。为了优化写入速度Kafka采用了两个技术顺序写入和MMFile(内存映射文件) 。
2、因为硬盘是机械结构,每次读写都会寻址->写入,其中寻址是一个“机械动作”,它是最耗时的(移动磁头)。所以硬盘最讨厌随机I/O,最喜欢顺序I/O。为了提高读写硬盘的速度,Kafka就是使用顺序I/O。这样省去了大量的内存开销以及节省了IO寻址的时间。但是单纯的使用顺序写入,Kafka的写入性能也不可能和内存进行对比,因此Kafka的数据并不是实时的写入硬盘中。
3、Kafka充分利用了现代操作系统分页存储(page catch)来利用内存提高I/O效率。Memory Mapped Files(后面简称mmap)也称为内存映射文件,在64位操作系统中一般可以表示20G的数据文件,它的工作原理是直接利用操作系统的Page实现文件到物理内存的直接映射。完成MMP映射后,用户对内存的所有操作会被操作系统自动的刷新到磁盘上,极大地降低了IO使用率。
注:kafka直接把数据写入到内核级别的内存中,算是写入成功了,kafka不会主动刷新内核级别的内存上的数据到磁盘上。而是由操作系统来刷新,极大降低io的使用率。对于用户而言,我们感知的kafak的写入效率,直接逼近与内存写入
7.2 消费性能提升之道(zero-copy)
1、Kafka服务器在响应客户端读取的时候,底层使用ZeroCopy技术,直接将磁盘无需拷贝到用户空间,而是直接将数据通过内核空间传递输出,数据并没有抵达用户空间。
2、传统IO操作
- 1、用户进程调用read等系统调用向操作系统发出IO请求,请求读取数据到自己的内存缓冲区中。自己进入阻塞状态。
- 2、操作系统收到请求后,进一步将IO请求发送磁盘。
- 3、磁盘驱动器收到内核的IO请求,把数据从磁盘读取到驱动器的缓冲中。此时不占用CPU。当驱动器的缓冲区被读满后,向内核发起中断信号告知自己缓冲区已满。
- 4、内核收到中断,使用CPU时间将磁盘驱动器的缓存中的数据拷贝到内核缓冲区中。
- 5、如果内核缓冲区的数据少于用户申请的读的数据,重复步骤3跟步骤4,直到内核缓冲区的数据足够多为止。
- 6、将数据从内核缓冲区拷贝到用户缓冲区,同时从系统调用中返回。完成任务
3、DMA读取
- 1、用户进程调用read等系统调用向操作系统发出IO请求,请求读取数据到自己的内存缓冲区中。自己进入阻塞状态。
- 2、操作系统收到请求后,进一步将IO请求发送DMA。然后让CPU干别的活去。
- 3、DMA进一步将IO请求发送给磁盘。
- 4.磁盘驱动器收到DMA的IO请求,把数据从磁盘读取到驱动器的缓冲中。当驱动器的缓冲区被读满后,向DMA发起中断信号告知自己缓冲区已满。
- 4、DMA收到磁盘驱动器的信号,将磁盘驱动器的缓存中的数据拷贝到内核缓冲区中。此时不占用CPU。这个时候只要内核缓冲区的数据少于用户申请的读的数据,内核就会一直重复步骤3跟步骤4,直到内核缓冲区的数据足够多为止。
- 5、当DMA读取了足够多的数据,就会发送中断信号给CPU。
- 6、CPU收到DMA的信号,知道数据已经准备好,于是将数据从内核拷贝到用户空间,系统调用返回。
注:跟IO中断模式相比,DMA模式下,DMA就是CPU的一个代理,它负责了一部分的拷贝工作,从而减轻了CPU的负担。DMA的优点就是:中断少,CPU负担低。
4、网络IO
- 一般方案:
1、文件在磁盘中数据被copy到内核缓冲区
2、从内核缓冲区copy到用户缓冲区
3、用户缓冲区copy到内核与socket相关的缓冲区。
4、数据从socket缓冲区copy到相关协议引擎发送出去
- Zero拷贝
1、文件在磁盘中数据被copy到内核缓冲区
2、从内核缓冲区copy到内核与socket相关的缓冲区。
3、数据从socket缓冲区copy到相关协议引擎发送出去
本章小结
1.队列的使用场景
- 解耦、异步通信、削峰填谷
2.Kafka架构和基本概念
- topic、分区/分区副本因子、offset、顺序写、zeroCopy
- 生产者、消费者|消费者组
《Kafka笔记》1、Kafka初识的更多相关文章
- 《Apache kafka实战》读书笔记-管理Kafka集群安全之ACL篇
<Apache kafka实战>读书笔记-管理Kafka集群安全之ACL篇 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 想必大家能看到这篇博客的小伙伴,估计你对kaf ...
- Kafka笔记整理(一)
Kafka简介 消息队列(Message Queue) 消息 Message 网络中的两台计算机或者两个通讯设备之间传递的数据.例如说:文本.音乐.视频等内容. 队列 Queue 一种特殊的线性表(数 ...
- Kafka笔记整理(三):消费形式验证与性能测试
Kafka消费形式验证 前面的<Kafka笔记整理(一)>中有提到消费者的消费形式,说明如下: .每个consumer属于一个consumer group,可以指定组id.group.id ...
- Kafka笔记--指定消息的partition规则
参数的设定:参考资料 不错的资料:http://blog.csdn.net/honglei915/article/details/37697655 http://developer.51cto.com ...
- Kafka笔记--参数说明及Demo
参考资料:http://blog.csdn.net/honglei915/article/details/37563647参数说明:http://ju.outofmemory.cn/entry/119 ...
- Kafka笔记--分布式环境搭建
部署: http://www.cnblogs.com/likehua/p/3999538.html http://blog.csdn.net/kimmking/article/details/8263 ...
- kafka笔记9(监控)
Kafka提供的所有度量指标都是通过JMX(Java Management Extensions)接口访问 JMX端口查询: zookeeper上获取端口信息 /brokers/ids/<I ...
- Kafka学习笔记之Kafka三款监控工具
0x00 概述 在之前的博客中,介绍了Kafka Web Console这 个监控工具,在生产环境中使用,运行一段时间后,发现该工具会和Kafka生产者.消费者.ZooKeeper建立大量连接,从而导 ...
- Storm相关笔记(包括Kafka和HBase)
一.Apache Kafka 1.了解Kafka 1.1.Kafka是什么?有什么用? 是什么? 1) Apache Kafka 是一个消息队列(生产者消费者模式) 2) Apache Kafka 目 ...
随机推荐
- Linux:系统用户和用户组
一.用户介绍 用户分为三类,超级用户.虚拟用户.普通用户:系统通过用户的uid识别用户:超级用户uid=0,虚拟用户uid=1-599,普通用户的uid=500-65535 用户和组相关配置文件/et ...
- 【高并发】Redis如何助力高并发秒杀系统,看完这篇我彻底懂了!!
写在前面 之前,我们在<[高并发]高并发秒杀系统架构解密,不是所有的秒杀都是秒杀!>一文中,详细讲解了高并发秒杀系统的架构设计,其中,我们介绍了可以使用Redis存储秒杀商品的库存数量.很 ...
- 编程体系结构(03):Java集合容器
本文源码:GitHub·点这里 || GitEE·点这里 一.集合容器简介 集合容器是Java开发中最基础API模块,通常用来存储运行时动态创建的元素,基本特点如下: 泛型特点,存储任意类型对象: 动 ...
- Redis之命令
Redis命令手册:http://doc.redisfans.com/
- [算法]体积不小于V的情况下的最小价值(0-1背包)
题目 0-1背包问题,问要求体积不小于V的情况下的最小价值是多少. 相关 转移方程很容易想,初始化的处理还不够熟练,可能还可以更简明. 使用一维dp数组. 代码 import java.util.Sc ...
- ssh 远程执行命令 nohup 无效问题
昨夜1:00多准备睡觉了,突然一哥们咨询了我一个问题. 他A机器上远程执行B机器(ssh user@ip "command")上的脚本,B上的服务并没有起来. 看了下截图,脚本确实 ...
- day56:django:csrf_token&文件上传
目录 1.csrf介绍 2.django实现csrf_token认证 3.django实现文件上传 csrf介绍 什么是csrf? csrf:跨站请求伪造.攻击者通过HTTP请求将数据传送到服务器,从 ...
- 使用jsonify返回json数据
from flask import Flask, jsonify app = Flask(__name__) json_data = [ {"name":"json&qu ...
- Mac OS X中Apache开启ssl
升级ios7.1之后用那个企业证书打测试包网页上不能下载,提示Mainfest.plist需要用https,然后就看了下Apache的https的设置,虽然后来还是不行,先略下不表,下文再说,把这个过 ...
- java版app自动化测试初始化模板
项目目录介绍 目录结构如下: (包含:驱动的基础配置.全局异常处理.异常截图.报告自动生成.app常用操作方法封装.常用工具类封装) 各包分层关系 basepage包负责存放app公共操作方法.And ...