kafka相关操作
kafka安装
下载
wget http://apache.gree.com/apache/kafka/1.0.2/kafka_2.11-1.0.2.tgz
tar -zxvf kafka_2.11-1.0.2.tgz -C /usr/local/
mv /usr/local/kafka_2.11-1.0.2 /usr/local/kafka
cd /usr/local/kafka/config/
vi server.properties
broker.id=0 这里的id每个kafka的id都是唯一的
host.name=10.2.xxx.xx 设置当前机器的IP
zookeeper.connect=10.2.xxx.xx:2181,10.2.xx.xxx:2181,10.2.xxx.xx:2181 设置zookeeper的地址
log.dirs=/tmp/kafka0-logs 设置日志地址,不同机器上的地址可能需要区别一下,避免broker启动不起来
其他节点配置类似
kafka指令
启动kafka
/usr/local/kafka/bin/kafka-server-start.sh --daemon /usr/local/kafka/config/server.properties 1>/dev/null 2>&1 &
添加--daemon让kafka在后台以守护进程的方式启动,不会自动停掉
创建topic,名为netSwitch ,分区数为3(--partition 3),总备份数为2(--replication-factor 2),备份数不可超过机器的数量,分区数可以大于机器的数量
/usr/local/kafka/bin/kafka-topics.sh --create --zookeeper HDP-master,HDP-slave1,HDP-slave2 --replication-factor 2 --partitions3 --topic netSwitch
kafka-topics --create --zookeeper HDP-master --replication-factor 2 --partitions3 --topic netSwitch
查看topic的描述
/usr/local/kafka/bin/kafka-topics.sh --describe --zookeeper HDP-master,HDP-slave1,HDP-slave2 --topic netSwitch
Topic:netSwitch PartitionCount:3 ReplicationFactor:2
Topic:netSwitch Partition:0 Leader:2 Replicas: 2,0 Isr: 2,0
Topic:netSwitch Partition:1 Leader:0 Replicas: 0,1 Isr: 0,1
Topic:netSwitch Partition:2 Leader:1 Replicas: 1,2 Isr: 1,2
其中Leader表示数据所在节点,在其他节点上的数据为备份数据
列出所有topic
/usr/local/kafka/bin/kafka-topics.sh --list --zookeeper HDP-master,HDP-slave1,HDP-slave2
kafka的topic数据保存在之前配置的日志文件目录下(server.properties文件中log.dirs的值,默认为/tmp/kafka0-logs),如果要删除某个topic,需要删除日志目录下对应的文件夹
查看已注册到zookeeper中的broker个数
/usr/lcoal/zookeeper/bin/zkCli.sh 进入zookeeper命令行
ls /brokers/ids 列出已注册的brokers的id
out:[1,2] id为1,2的节点注册正常,0节点异常?
quit 退出zookeeper命令行
当部分broker注册异常时可尝试修改log.dirs的值为不同目录名 后 正常启动
修改topic的分区数
kafka-topics --alter --zookeeper 10.4.56.22:9013/kafka --topic eSafenet --partitions 4
修改topic的备份数(将已有数据进行重新 分布配置)
(1)查看topic的分区备份情况
/usr/local/kafka/bin/kafka-topics.sh --describe --zookeeper HDP-master,HDP-slave1,HDP-slave2 --topic netSwitch
Topic:netSwitch PartitionCount:3 ReplicationFactor:1
Topic:netSwitch Partition:0 Leader:2 Replicas: 2 Isr: 2
Topic:netSwitch Partition:1 Leader:0 Replicas: 0 Isr: 0
Topic:netSwitch Partition:2 Leader:1 Replicas: 1 Isr: 1
(2)根据分区备份信息,编辑新的配置
vi ./increase-replication-factor.json
{"version":1,
"partitions":[
{"topic":"netSwitch","partition":0,"replicas":[2,0]},
{"topic":"netSwitch","partition":1,"replicas":[0,1]},
{"topic":"netSwitch","partition":1,"replicas":[1,2]}
]}
kafka-reassign-partitions --zookeeper HDP-master --reassignment-json-file ./increase-replication-factor.json --execute
(3)查看重分配的执行情况
kafka-reassign-partitions --zookeeper HDP-master --reassignment-json-file ./increase-replication.json --verify
清空topic中的数据
kafka-topics --zookeeper HDP-master --delete --topic netSwitch
发送消息到broker (生产者)
/usr/local/bin/kafka-console-producer.sh --broker-list HDP-master:9092 --topic netSwitch
>this is the first hdp-master test message
>this is the second hdp-master test message
>three of it
^c ctrl+c 退出并发送消息
从broker消费消息 (消费者)
/usr/local/bin/kafka-console-consumer.sh --zookeeper HDP-master,HDP-salve1,HDP-slave2 --from-beginning --topic netSwitch
this is the first hdp-master test message
three of it
this is the second hdp-master test message
kafka-console-consumer --bootstrap-server 10.2.24.15:9092 --topic netSwitch
可以看出消费kafka的topic数据时,不一定是按顺序来的,因为这些数据在不同的partition分区,kafka只能保证同一分区上的数据是按顺序读取的,
可以通过某种方式,设置某一类型的数据被发送到同一分区。
kafka相关操作的更多相关文章
- kafka的相关操作脚本
总结最近用到的kafka相关命令和脚本. 1.创建Topic./kafka-topics.sh --zookeeper cc13-141:2182 --topic mytopic --replicat ...
- 简单封装kafka相关的api
一.针对于kafka版本 <dependency> <groupId>org.apache.kafka</groupId> <artifactId>ka ...
- Kafka学习笔记之Kafka自身操作日志的清理方法(非Topic数据)
0x00 概述 本文主要讲Kafka自身操作日志的清理方法(非Topic数据),Topic数据自己有对应的删除策略,请看这里. Kafka长时间运行过程中,在kafka/logs目录下产生了大量的ka ...
- Spark-读写HBase,SparkStreaming操作,Spark的HBase相关操作
Spark-读写HBase,SparkStreaming操作,Spark的HBase相关操作 1.sparkstreaming实时写入Hbase(saveAsNewAPIHadoopDataset方法 ...
- 从零自学Hadoop(20):HBase数据模型相关操作上
阅读目录 序 介绍 命名空间 表 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 ...
- 从零自学Hadoop(21):HBase数据模型相关操作下
阅读目录 序 变量 数据模型操作 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 ...
- 理解CSV文件以及ABAP中的相关操作
在很多ABAP开发中,我们使用CSV文件,有时候,关于CSV文件本身的一些问题使人迷惑.它仅仅是一种被逗号分割的文本文档吗? 让我们先来看看接下来可能要处理的几个相关组件的词汇的语义. Separat ...
- Liunx下的有关于tomcat的相关操作 && Liunx 常用指令
先记录以下liunx下的有关于tomcat的相关操作 查看tomcat进程: ps-ef|grep java (回车) 停止tomcat进程: kill -9 PID (进程号如77447) (回车) ...
- pip的相关操作
>Python中的pip是什么?能够做些什么? pip是Python中的一个进行包管理的东西,能够下载包.安装包.卸载包......一些列操作 >怎么查看pip的相关信息 在控制台输入: ...
随机推荐
- JavaScript 是如何运行的?
摘要: 理解JS执行原理. 原文:JavaScript 是如何运行的? 作者:hengg Fundebug经授权转载,版权归原作者所有. 什么是JavaScript? 我们来确认一下JavaScrip ...
- SQL Server 查询某一个数据库存储过程、函数是否包含某一个内容或者脚本
SELECT obj.Name 名称, sc.TEXT 内容FROM syscomments scINNER JOIN sysobjects obj ON sc.Id = obj.IDWHERE sc ...
- Mac打开Finder快捷键
摘要:目前网络中较常见的打开Finder的方法有两种,要么是先进入桌面状态,再使用快捷键command + shift + c:要么是通过下载软件来设置打开Finder的快捷键.都过于繁琐,其实有很简 ...
- 二、ITK例子-jpg图像读写
一.ITK的读写工作原理 在ITK里面,我们需要设置读取图像的像素类型,图像类型. 然后设置读取指针,将读取参数传入. 同时设置写指针,也将写入文件参数传入. 为了实现读写动作,我们需要构造一个IO工 ...
- iOS: 创建静态库,实现自己的API私有使用
一.介绍 在开发中经常使用到第三方的静态框架,格式基本上就是.framework和.a格式的.使用时,会发现我们只能使用无法修改,这就是静态框架的一个好处,私有性.内部实现的代码只有公开者本人知晓,对 ...
- RPA中房产证的 OCR 识别
客户需求,识别一些证件内容,包括身份证.户口本.营业执照.银行卡以及房产证,前四个比较容易实现,不管是艺赛旗的 RPA 还是百度的 OCR 都有接口,直接调用即可,但是都没有房产证的 OCR 识别,只 ...
- 五分钟搞定 HTTPS 配置,二哥手把手教
01.关于 FreeSSL.cn FreeSSL.cn 是一个免费提供 HTTPS 证书申请.HTTPS 证书管理和 HTTPS 证书到期提醒服务的网站,旨在推进 HTTPS 证书的普及与应用,简化证 ...
- laravel中的表单请求类型和CSRF防护(六)
laravel中为我们提供了绑定不同http请求类型的函数. Route::get('/test', function () {}); Route::post('/test', function () ...
- C#截图操作(几种截图方法)
公共函数获取屏幕截图private Bitmap GetScreenCapture(){ Rectangle tScreenRect = new Rectangle(0, 0, Screen.Prim ...
- 黄聪:table自适应宽度和高度
自适应宽度: td { width: 1px; white-space: nowrap; /* 自适应宽度*/ word-break: keep-all; /* 避免长单词截断,保持全部 */ } 自 ...