作者 张卫滨                发布于        2015年9月21日

 

转载

在LinkedIn的数据基础设施中,Kafka是核心支柱之一。来自LinkedIn的工程师曾经就Kafka写过一系列的专题文章,包括它的现状和未来如何规模化运行如何适应LinkedIn的开源策略以及如何适应整体的技术栈等。近日,来自LinkedIn的高级工程主管Kartik Paramasivam撰文分享了他们使用和优化Kafka的经验

LinkedIn在2011年7月开始大规模使用Kafka,当时Kafka每天大约处理10亿条消息,这一数据在2012年达到了每天200亿 条,而到了2013年7月,每天处理的消息达到了2000亿条。在几个月前,他们的最新记录是每天利用Kafka处理的消息超过1万亿条,在峰值时每秒钟 会发布超过450万条消息,每周处理的信息是1.34 PB。每条消息平均会被4个应用处理。在过去的四年中,实现了1200倍的增长。

随着规模的不断扩大,LinkedIn更加关注于Kafka的可靠性、成本、安全性、可用性以及其他的基础指标。在这个过程中,LinkedIn的技术团队在多个特性和领域都进行了有意义的探索。

 

LinkedIn在Kafka上的主要关注领域包括:

配额(Quotas)

在LinkedIn,不同的应用使用同一个Kafka集群,所以如果某个应用滥用Kafka的话,将会对共享集群的其他应用带来性能和SLA上的负 面影响。有些合理的使用场景有可能也会带来很坏的影响,比如如果要重新处理整个数据库的所有数据的话,那数据库中的所有记录会迅速推送到Kafka上,即 便Kafka性能很高,也会很容易地造成网络饱和和磁盘冲击。

Kartik Paramasivam绘图展现了不同的应用是如何共享Kafka Broker的:

 

为了解决这个问题,LinkedIn的团队研发了一项特性,如果每秒钟的字节数超过了一个阈值,就会降低这些Producer和Customer的 速度。对于大多数的应用来讲,这个默认的阈值都是可行的。但是有些用户会要求更高的带宽,于是他们引入了白名单机制,白名单中的用户能够使用更高数量的带 宽。这种配置的变化不会对Kafka Broker的稳定性产生影响。这项特性运行良好,在下一版本的Kafka发布版中,所有的人就都能使用该特性了。

开发新的Customer

目前的Kafka Customer客户端依赖于ZooKeeper,这种依赖会产生一些大家所熟知的问题,包括ZooKeeper的使用缺乏安全性以及Customer实例之间可能会出现的脑裂现象(split brain)。因此,LinkedIn与Confluent以及其他的开源社区合作开发了一个新的Customer。这个新的Customer只依赖于Kafka Broker,不再依赖于ZooKeeper。这是一项很复杂的特性,因此需要很长的时间才能完全应用于生产环境中。

在Kafka中,目前有两个不同类型的Customer。如果Customer希望完全控制使用哪个分区上的Topic的话,就要使用低级别的 Customer。在高级别的Customer中,Kafka客户端会自动计算如何在Customer实例之间分配Topic分区。这里的问题在于,如果 使用低级别Customer的话,会有许多的基本任务要去完成,比如错误处理、重试等等,并且无法使用高级别Customer中的一些特性。在 LinkedIn这个新的Customer中,对低级别和高级别的Customer进行了调和。

可靠性和可用性的提升

按照LinkedIn这样的规模,如果Kafka的新版本中有什么重要缺陷的话,就会对可靠性产生很大的影响。因此,LinkedIn技术团队一项很重要的任务就是发现和修正缺陷。他们在可靠性方面所做的增强包括:

Mirror Maker无损的数据传输:Mirror Maker是Kafka的一个组件,用来实现Kafka集群和Kafka Topic之间的数据转移。LinkedIn广泛使用了这项技术,但是它在设计的时候存在一个缺陷,在传输时可能会丢失数据,尤其是在集群升级或机器重启 的时候。为了保证所有的消息都能正常传输,他们修改了设计,能够确保只有消息成功到达目标Topic时,才会认为已经完全消费掉了。

副本的延迟监控:所有发布到Kafka上的消息都会复制副本,以提高持久性。当副本无法“跟上”主版本(master)的话,就认为 这个副本处于非健康的状态。在这里,“跟上”的标准指的是配置好的字节数延迟。这里的问题在于,如果发送内容很大的消息或消息数量不断增长的话,那么延迟 可能会增加,那么系统就会认为副本是非健康的。为了解决这个问题,LinkedIn将副本延迟的规则修改为基于时间进行判断。

实现新的Producer:LinkedIn为Kafka实现了新的Producer,这个新的Producer允许将消息实现为管道(pipeline),以提升性能。目前该功能尚有部分缺陷,正在处于修复之中。

删除Topic:作为如此成熟的产品,Kafka在删除Topic的时候,会出现难以预料的后果或集群不稳定性,这一点颇令人惊讶。在几个月前,LinkedIn对其进行了广泛地测试并修改了很多缺陷。到Kafka的下一个主版本时,就能安全地删除Topic了。

安全性

在Kafka中,这是参与者最多的特性之一,众多的公司互相协作来解决这一问题。其成果就是加密、认证和权限等功能将会添加到Kafka中,在LinkedIn,预期在2015年能使用加密功能,在2016年能使用其他的安全特性。

Kafka监控框架

LinkedIn最近正在致力于以一种标准的方式监控Kafka集群,他们的想法是运行一组测试应用,这些应用会发布和消费Kafka Topic数据,从而验证基本的功能(顺序、保证送达和数据完整性等)以及端到端发布和消费消息的延时。除此之外,这个框架还可以验证Kafka新版本是 否可以用于生产环境,能够确保新版本的Kafka Broker不会破坏已有的客户端。

故障测试

当拿到新的Kafka开源版本后,LinkedIn会运行一些故障测试,从而验证发生失败时Kafka新版本的质量。针对这项任务,LinkedIn研发了名为Simoorg的故障引导框架,它会产生一些低级别的机器故障,如磁盘写失败、关机、杀进程等等。

应用延迟监控

LinkedIn开发了名为Burrow的工具,能够监控Customer消费消息的延迟,从而监控应用的健康状况。

保持Kafka集群平衡

LinkedIn在如下几个维度保证了集群的平衡:

感知机柜:在进行平衡时,很重要的一点是Kafka分区的主版本与副本不要放到同一个数据中心机柜上。如果不这样做的话,一旦出现机柜故障,将会导致所有的分区不可用。

确保Topic的分区公平地分发到Broker上:在为Kafka发布和消费消息确定了配额后,这项功能变得尤为重要。相对于将Topic的分区发布到同一个Broker节点上,如果Topic的分区能够均衡地分发到多个Broker上,那么相当的它有了更多的带宽。

确保集群节点的磁盘和网络容量不会被耗尽:如果几个Topic的大量分区集中到了集群上的少数几个节点上,那么很容易出现磁盘或网络容量耗尽的情况。

在LinkedIn,目前维护站点可靠性的工程师(Site Reliability Enginee,SRE)通过定期转移分区确保集群的平衡。在分区放置和重平衡方面,他们已经做了一些原始设计和原型实现,希望能够让系统更加智能。

在其他的数据系统中,将Kafka作为核心的组成部分

在LinkedIn,使用Espresso作为NoSQL数据库,目前他们正在将Kafka作为Espresso的备份机制。这将Kafka放到了站点延迟敏感数据路径的关键部分,同时还需要保证更高的消息传送可靠性。目前,他们做了很多的性能优化,保证消息传输的低延迟,并且不会影响消息传递的可靠性。

Kafka还会用于异步上传数据到Venice之中。除此之外,Kafka是Apache Samza实时流处理的一个重要事件源,同时Samza还使用Kafka作为持久化存储,保存应用的状态。在这个过程中,LinkedIn修改了一些重要的缺陷,并增强了Kafka的日志压缩特性。

LinkedIn的Kafka生态系统

除了Apache Kafka Broker、客户端以及Mirror Maker组件之外,LinkedIn还有一些内部服务,实现通用的消息功能:

支持非Java客户端:在LinkedIn,会有一些非Java应用会用到Kafka的REST接口,去年他们重新设计了Kafka的REST服务,因为原始的设计中并不能保证消息的送达。

消息的模式:在LinkedIn,有一个成熟的“模式(schema)注册服务”,当应用发送消息到Kafka中的时候,LinkedIn Kafka客户端会根据消息注册一个模式(如果还没有注册过的话)。这个模式将会自动在Customer端用于消息的反序列化。

成本计算:为了统计各个应用对Kafka的使用成本,LinkedIn使用了一个Kafka审计Topic。LinkedIn客户端会自动将使用情况发送到这个Topic上,供Kafka审计服务读取并记录使用情况,便于后续的分析。

审计系统:LinkedIn的离线报告job会反映每小时和每天的事件情况,而事件从源Kafka Topic/集群/数据中心,到最后的HDFS存储是需要时间的。因此,Hadoop job需要有一种机制,保证某个时间窗口能够获得所有的事件。LinkedIn Kafka客户端会生成它们所发布和消费的消息数量。审计服务会记录这个信息,Hadoop以及其他的服务可以通过REST接口获取这一信息。

支持内容较大的消息:在LinkedIn,将消息的大小限定为1MB,但是有些场景下,无法满足这一限制。如果消息的发布方和使用方 是同一个应用的话,一般会将消息拆分为片段来处理。对于其他的应用,建议消息不要超过1MB。如果实在无法满足该规则的话,消息的发送和消费方就需要使用 一些通用的API来分割和组装消息片段,而在LinkedIn的客户端SDK中,他们实现了一种特性,能够自动将一条大的信息进行分割和重组。

目前,越来越多的国内外公司在使用Kafka,如Yahoo!、Twitter、Netflix和Uber等,所涉及的功能从数据分析到流处理不一而足,希望LinkedIn的经验也能够给其他公司一些借鉴。

LinkedIn是如何优化Kafka的的更多相关文章

  1. 【转载】LinkedIn是如何优化Kafka的

    http://www.wtoutiao.com/p/18d5RY0.html 在LinkedIn的数据基础设施中,Kafka是核心支柱之一.来自LinkedIn的工程师曾经就Kafka写过一系列的专题 ...

  2. Kafka 协议实现中的内存优化

    Kafka 协议实现中的内存优化 Kafka 协议实现中的内存优化   Jusfr 原创,转载请注明来自博客园 Request 与 Response 的响应格式 Request 与 Response ...

  3. Apache Kafka: 优化部署的10个最佳实践

    原文作者:Ben Bromhead      译者:江玮 原文地址:https://www.infoq.com/articles/apache-kafka-best-practices-to-opti ...

  4. Kafka运行环境优化实践

    Kafka高性能的特点及条件 Kafka是一个高吞吐量分布式消息中间件,并且提供了消息的持久化功能.其高可行有两个重要的特点: 利用了磁盘连续读写性能显著高于随机读写性能的特点 并发,将一个topic ...

  5. kafka集群原理介绍

    目录 kafka集群原理介绍 (一)基础理论 二.配置文件 三.错误处理 kafka集群原理介绍 @(博客文章)[kafka|大数据] 本系统文章共三篇,分别为 1.kafka集群原理介绍了以下几个方 ...

  6. Kafka知识总结及面试题

    目录 概念 Kafka基础概念 命令行 Kafka 数据存储设计 kafka在zookeeper中存储结构 生产者 生产者设计 消费者 消费者设计 面试题 kafka设计 请说明什么是Apache K ...

  7. 消息队列面试题、RabbitMQ面试题、Kafka面试题、RocketMQ面试题 (史上最全、持续更新、吐血推荐)

    文章很长,建议收藏起来,慢慢读! 疯狂创客圈为小伙伴奉上以下珍贵的学习资源: 疯狂创客圈 经典图书 : <Netty Zookeeper Redis 高并发实战> 面试必备 + 大厂必备 ...

  8. Kafka 负载均衡在 vivo 的落地实践

    ​vivo 互联网服务器团队-You Shuo 副本迁移是Kafka最高频的操作,对于一个拥有几十万个副本的集群,通过人工去完成副本迁移是一件很困难的事情.Cruise Control作为Kafka的 ...

  9. kafka入门教程链接

    http://www.aboutyun.com/forum.php?mod=viewthread&tid=12882 经典入门教程 1.Kafka独特设计在什么地方?2.Kafka如何搭建及创 ...

随机推荐

  1. 百度面试题——top K算法

    需求 从一亿个数据中,找出其中最小的10个数. 分析 最笨的方法就是将这一亿个数据,按从小到大进行排序,然后取前10个.这样的话,即使使用时间复杂度为nlogn的快排或堆排,由于元素会频繁的移动,效率 ...

  2. 如何在本机搭建SVN服务器【转】

    转自:http://www.cnblogs.com/loveclumsybaby/archive/2012/08/21/2649353.html 目的:在没有正式的SVN服务器的情况下,完成代码的本地 ...

  3. ARM内核全解析,从ARM7,ARM9到Cortex-A7,A8,A9,A12,A15到Cortex-A53,A57【转】

    转自:http://www.myir-tech.com/resource/448.asp 前不久ARM正式宣布推出新款ARMv8架构的Cortex-A50处理器系列产品,以此来扩大ARM在高性能与低功 ...

  4. MYSQL数据库的数据完整性

    #转载请联系 数据库中存储的数据应该符合我们的预期, 这就是数据完整性. 那么如何实现数据完整性? 我们通过以下两方面来实现数据的完整性: 数据类型: 存储在数据库中的所有数据值均正确的状态.如果数据 ...

  5. 《Java编程思想》笔记 第十九章 枚举类型

    1.基本enum特征 所有创建的枚举类都继承自抽象类 java.lang.Enum; 一个枚举类,所有实例都要在第一句写出以 ,隔开. 如果只有实例最后可以不加 : 枚举类因为继承了Enum,所以再不 ...

  6. seleniumu 3.0复选框操作(定位一组元素)

    一般验证复选框是否可以选择点击常用到定位一组元素去循环遍历执行点击事件.但是有时候在不同的浏览器下可能会存在差异化的最终结果. 目前谷歌浏览器常常存在多次点击同一复选框,导致最终最后两项复选框均未被勾 ...

  7. Selenium2+python自动化55-unittest之装饰器(@classmethod)【转载】

    前言 前面讲到unittest里面setUp可以在每次执行用例前执行,这样有效的减少了代码量,但是有个弊端,比如打开浏览器操作,每次执行用例时候都会重新打开,这样就会浪费很多时间. 于是就想是不是可以 ...

  8. CentOS7下,安装网卡驱动,命令行手动连接WIFI指导

    买了一个无线网卡,型号为TL-WN823N,谁知道在CentOS下没有驱动 于是开始了无线上网的漫漫征途 经历了无数个坑啊,解决了一个又一个的问题啊 到最后ping通的时候成就感简直爆棚 文章结构简介 ...

  9. 配置虚拟主机 和 打war包

    配置一台虚拟主机?        在[tomcat]/conf/server.xml文件中的<Engine>标签内部添加一个<Host>标签:            <H ...

  10. [python] 如何将unicode字符串转换为中文

    答案:(http://stackoverflow.com/) ps:这个网站解决了我好多问题啊,大家多上 >>>s='\u9648\u4f1f\u9706\u5176\u5b9e\u ...