【大数据面试】【框架】kafka:组成、台数/参数配置、持久化、ISR队列、宕机、丢数据、重复数据、数据积压、优化各种配置(刷盘、存盘、副本、压缩)、zk、其他
一、基本信息
1、组成
生产者
broker
消费者
zookeeper:brokerid、consumer信息(不包含生产者的信息)
2、需要安装多少台
2 * (生产者的峰值生产速率 * 副本 / 100) + 1 = 3
生产环境下,配置副本的数量为2-3个,2个居多
3、副本的优势和劣势
副本越多,越能提高可靠性
增加了网络IO传输
4、峰值生产速率,一般在百兆左右每秒
需要使用压力测试
如,10T数据,多长时间可以传输完
消费速率也是百兆每秒
5、监控器用的什么
kafka egale、monitor、manager,都是开源的
我们都是自己研发的,怎么回答,仰视大佬
6、kafka数据保存多久
默认保存7天,生产环境下建议保存3天
原因:当天把数据消费完,才能做到T+1模式,消费完数据
没有必要保存7天
其他原因:
日志服务器已经保存了30天☆(logfile)
7、数据量
条/S M/S
日活是100万时,1人1天100条,一天的日志数为1000000*100=1亿
1亿/(3600*24)=1150条/s
一条日志1k左右,生产环境下的日志大小为0.5K-2K之间
大约1M/S的数据
问:什么时间点数据量最大,最大能达到多少
晚上7-10点数据量达到高峰 =》 20M/S或30M/S左右,不要超过50M/S
原因:2 * (生产者的峰值生产速率 * 副本 / 100) + 1 = 3
2*(60*2/100)>3,三台kafka容易卡顿
8、100w日活对应100G数据量左右,给kafka预留多大的空间
100G*2个副本*保存3天/0.7(预留30%空间,zabbix磁盘报警)
9、设置多少个分区
一般设置3-10个分区
(1)设置1个分区
(2)进行压测:生产者峰值生产速率tp,消费者峰值生产速率cp
(3)有个预期的吞吐量是t
(4)分区数=t/min(tp, tc)
如tp=20M/S,tc=50M/S,t的期望值是100M/S
计算出的分区数=5个分区
分区数影响了并发度
10、ISR队列
解决leader挂了谁当老大,谁在队首就有机会
旧版:根据延迟时间和延迟条数判断
新版:根据延迟时间进行判断
11、分区分配策略
range:默认分区方式,分区特点是10个线程,3个分区,1234/567/8910,除不尽的放入低分区,容易产生数据倾斜
RandRobin:采用哈希的方式把任务随机打散,采用轮询的方式,减少数据倾斜
二、挂了/宕机的解决
1、分析
短时间内,数据进入到Flume Channel,长时间的话还有日志服务器存储30天的数据
Flume的非memory Channel都能保存一部分
三、丢失数据
1、看ACK,取值可以为0,1,-1
0:发送过去就不管了,可靠性最差,传输效率最高
1:发送过去,leader应答,可靠性一般,传输效率也一般
-1:发送过去,leader和follower共同应答,可靠性最高,传输效率最低
2、在生产环境下怎么选
0是没人选的
如果是普通日志,通常会选择1
如果是金融、和钱相关的,通常选择-1(上海比较多)
四、重复数据
1、【kafka去重】幂等性 + 事务 + ACK=-1【做到不丢不重:精确一次性消费】
单分区幂等性:只能保证单分区、单会话的数据不重复【单会话校验】
多分区事务:全局维护id,保证各个分区均不重复
两种方式为不同的级别,越增加校验越要求不重复,会带来更大的性能损失
很少同时使用幂等性+事务【精确一致性消费】
2、下一级处理:hive的DWD层 或 sparkstreaming、去重(groupby去重、redis、开窗函数取第一条)
3、不处理
五、数据积压【调参】
数据占满没有消费满
方案:自身找办法,找兄弟
自身找办法:增加并发度(增加分区),下一级消费者也要增加消费线程
(如果下一级是sparkstreaming,需要增加CPU核数,前边几个分区,就设置为几个CPU核数;)
(一次传输的数据是128M,对应1G的内存)
找兄弟:提高下一级消费者的消费能力,都有一个batch size参数 (1000/s---》2000-3000/s)
六、优化
1、配置文件
etc、conf、config
2、server.config
num.network.threads=3 计算线程,线程数=CPU核数+1
nums.io.threads=8 IO线程,线程数=CPU核数*2
CPU核数为8,计算线程为9,IO线程设为16
3、比较
进来后简单进行运算就出去:IO线程【IO密集型任务】
计算并行任务:进入后计算大量矩阵等运算后再出去,占用大量CPU时间,配置的线程数要少一些【计算密集型任务】
4、优化
kafka最终从内存进入磁盘,数据文件刷盘策略
日志保留策略天数,设置为3天
副本数量,设置为2
5、producer.properties
compression.type压缩配置:none/snappy/gzip/lz4/zstd
通常使用zstd,默认是none
压缩的优势:减少磁盘空间、提高网络传输效率
劣势:如果是频繁计算的场景,就不要采用压缩【大量运算、解压缩、压缩,影响CPU效率】
6、kafka的默认内存调整
bin/kafka-server-start.sh
默认为1G,通常情况下会调整为4-6G,不要超过6G
如果6G还不行,增加kafka台数(自己,找兄弟)
七、其他
1、kafka为什么传输效率快
分布式集群、采用分区
采用顺序读写,可以达到600M/S(随机读写只能达到100M/S)
采用零拷贝机制:
配置好压缩后,也可以提高传输效率
2、如果传输的日志文件为2M,kafka会有什么问题
默认传输消息最大值为1M,超过1M,无法消费也无法生产
可以调整参数,server.properties
3、kafka的消息过期后的策略
前提:不被引用,未被消费
删除或压缩
4、其他场景:从之前某一时刻,重新消费数据
可以按照时间戳的形式,来消费数据
5、zk中存储了kafka的哪些信息
brokerid、topic、分区,里面没有生产者信息
【大数据面试】【框架】kafka:组成、台数/参数配置、持久化、ISR队列、宕机、丢数据、重复数据、数据积压、优化各种配置(刷盘、存盘、副本、压缩)、zk、其他的更多相关文章
- 记一次Kafka服务器宕机的真实经历!!
大家好,我是冰河~~ 估计节前前祭拜服务器不灵了,年后服务器总是或多或少的出现点问题.不知是人的问题,还是风水问题.昨天下班时,跟运维小伙伴交代了好几遍:如果使用Docker安装Kafka集群的话,也 ...
- 宕机了,Redis数据丢了怎么办?
持续原创输出,点击上方蓝字关注我 目录 前言 什么是AOF? 三种写回策略 日志文件太大怎么办? AOF重写会阻塞主线程吗? AOF的缺点 总结 什么是RDB? 给哪些数据做快照? 快照时能够修改数据 ...
- 修复ogg source端意外宕机造成的数据不同步
修复ogg source端意外宕机造成的数据不同步 分类: Oracle2016-04-28 11:50:40原文地址:修复ogg source端意外宕机造成的数据不同步 作者:十字螺丝钉 ogg s ...
- 大数据技术之Kafka
Kafka概述 1.1 消息队列 (1)点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除) 点对点模型通常是一个基于拉取或者轮询的消息传送模型,这种模型从队列中请求信息,而不是将消息 ...
- 大数据平台搭建-kafka集群的搭建
本系列文章主要阐述大数据计算平台相关框架的搭建,包括如下内容: 基础环境安装 zookeeper集群的搭建 kafka集群的搭建 hadoop/hbase集群的搭建 spark集群的搭建 flink集 ...
- 学习大数据基础框架hadoop需要什么基础
什么是大数据?进入本世纪以来,尤其是2010年之后,随着互联网特别是移动互联网的发展,数据的增长呈爆炸趋势,已经很难估计全世界的电子设备中存储的数据到底有多少,描述数据系统的数据量的计量单位从MB(1 ...
- 大数据 -- zookeeper和kafka集群环境搭建
一 运行环境 从阿里云申请三台云服务器,这里我使用了两个不同的阿里云账号去申请云服务器.我们配置三台主机名分别为zy1,zy2,zy3. 我们通过阿里云可以获取主机的公网ip地址,如下: 通过secu ...
- 面试系列二:精选大数据面试真题JVM专项-附答案详细解析
公众号(五分钟学大数据)已推出大数据面试系列文章-五分钟小面试,此系列文章将会深入研究各大厂笔面试真题,并根据笔面试题扩展相关的知识点,助力大家都能够成功入职大厂! 大数据笔面试系列文章分为两种类型: ...
- 坐实大数据资源调度框架之王,Yarn为何这么牛
摘要:Yarn的出现伴随着Hadoop的发展,使Hadoop从一个单一的大数据计算引擎,成为大数据的代名词. 本文分享自华为云社区<Yarn为何能坐实资源调度框架之王?>,作者: Java ...
- Hadoop大数据面试--Hadoop篇
本篇大部分内容參考网上,当中性能部分參考:http://blog.cloudera.com/blog/2009/12/7-tips-for-improving-mapreduce-performanc ...
随机推荐
- Fluentd直接传输日志给MongoDB (standalone)
官方文档地址:https://docs.fluentd.org/output/mongo td-agent版本默认没有包含out_mongo插件,需要安装这个插件才能使用 使用的是td-agent,安 ...
- PAT (Basic Level) Practice 1011 A+B 和 C 分数 15
给定区间 [−231,231] 内的 3 个整数 A.B 和 C,请判断 A+B 是否大于 C. 输入格式: 输入第 1 行给出正整数 T (≤10),是测试用例的个数.随后给出 T 组测试用例,每组 ...
- C#-2 C#程序
一 C#程序是一组类型声明 C#程序或DLL的源代码是一组一种或多种类型声明. 对于可执行程序,类型声明中必须有一个包含Main方法的类. 命名空间是一种把相关的类型声明分组并命名的方法.是类在程序集 ...
- 关于pwd命令小技巧-确认当前工作目录的绝对路径中是否包含软链接目录名
Linux中任何一个命令,当你用心研究到深处时,也许总能有着新的发现或者有趣的用途,如下方的pwd命令 对于pwd命令,大家都知道是用于打印当前的工作目录路径,而且是绝对路径 pwd命令两个选项的,默 ...
- javaweb 导出文件名乱码的问题解决方案
fileName = new String(fileName.getBytes("ISO8859-1"), "UTF-8"); 或者 String finalF ...
- [leetcode]95.不同的二叉搜索树
Posted by 微博@Yangsc_o 原创文章,版权声明:自由转载-非商用-非衍生-保持署名 | Creative Commons BY-NC-ND 3.0 95. 不同的二叉搜索树 II 给你 ...
- 测试开发HTTP请求过程(一)
测试开发HTTP请求过程 HTTP请求过程: 首先要熟悉http请求过程: 1,服务端建立socket监听 2,客户端发送http请求 3,客户端与服务端建立socket连接 4,客户端------t ...
- 题解 P6745 『MdOI R3』Number
前言 不知道是不是正解但是觉得挺好理解. 科学计数法 将一个数表示为\(a\times 10^x\) 的形式.其中\(a\leq10\),\(x\) 为整数. \(\sf Solution\) 其实这 ...
- JVM学习笔记——垃圾回收篇
JVM学习笔记--垃圾回收篇 在本系列内容中我们会对JVM做一个系统的学习,本片将会介绍JVM的垃圾回收部分 我们会分为以下几部分进行介绍: 判断垃圾回收对象 垃圾回收算法 分代垃圾回收 垃圾回收器 ...
- 关于.Net和Java的看法-一个小实习生经历
目录 背景 带着疑惑 生活中的迷茫 开始实训 实习 再看java 总结 背景 笔者是一个专科院校的一名普通学生,目前就职于某三线城市的WEB方面.Net开发实习生,在找实习期间和就业期间的一些看法,发 ...