kafka安装与简单使用


文件的详细属性为:
- #broker的全局唯一编号,不能重复
- broker.id=
- #用来监听链接的端口,producer或consumer将在此端口建立连接
- port=
- #处理网络请求的线程数量
- num.network.threads=
- #用来处理磁盘IO的线程数量
- num.io.threads=
- #发送套接字的缓冲区大小
- socket.send.buffer.bytes=
- #接受套接字的缓冲区大小
- socket.receive.buffer.bytes=
- #请求套接字的缓冲区大小
- socket.request.max.bytes=
- #kafka消息存放的路径
- log.dirs=/export/servers/logs/kafka
- #topic在当前broker上的分片个数
- num.partitions=
- #用来恢复和清理data下数据的线程数量
- num.recovery.threads.per.data.dir=
- #segment文件保留的最长时间,超时将被删除
- log.retention.hours=
- #滚动生成新的segment文件的最大时间
- log.roll.hours=
- #日志文件中每个segment的大小,默认为1G
- log.segment.bytes=
- #周期性检查文件大小的时间
- log.retention.check.interval.ms=
- #日志清理是否打开
- log.cleaner.enable=true
- #broker需要使用zookeeper保存meta数据
- zookeeper.connect=192.168.52.106:,192.168.52.107:,192.168.52.108:
- #zookeeper链接超时时间
- zookeeper.connection.timeout.ms=
- #partion buffer中,消息的条数达到阈值,将触发flush到磁盘
- log.flush.interval.messages=
- #消息buffer的时间,达到阈值,将触发flush到磁盘
- log.flush.interval.ms=
- #删除topic需要server.properties中设置delete.topic.enable=true否则只是标记删除
- delete.topic.enable=true
- #此处的host.name为本机IP(重要),如果不改,则客户端会抛出:Producer connection to localhost: unsuccessful 错误!
- host.name=spark101
ok,根据上面的配置修改自己的配置i文件,切记broker.id属性,全局唯一
然后分发文件,分发后修改broker.id和host.name属性
二、简单的使用
注意:kafka的使用,需要zookeeper的支持,请切记在启动kafka之前,zookeeper集群已启动完毕。
首先,启动kafka,启动成功后会jps查看会有一个kafka进程,若是启动失败,请仔细检查配置文件。
- ./bin/kafka-server-start.sh -daemon config/server.properties
创建topic
- ./bin/kafka-topics.sh --create --zookeeper spark101:,spark102:,spark103: --partition --replication-factor --topic test01
查看topic
- ./bin/kafka-topics.sh --list --zookeeper spark101:2181,spark102:2181,spark103:2181
查看详情
- ./bin/kafka-topics.sh --describe --zookeeper spark101:,spark102:,spark103: --topic test01
删除(若是配置文件中delete.topic.enable属性为true会直接删除,若是没有配置默认只是标记,并未真正删除)
- ./bin/kafka-topics.sh --delete --zookeeper spark101:,spark102:,spark103: --topic test01
说明:若是没有true,同时又想删除干净的话,逐步删除一下文件
- 1、删除配置真实数据目录下的数据文件
2、然后删除zookeeper下面的信息- rmr /admin/delete_topics/topicname
- rmr /config/topics/topicname
- rmr /brokers/topics/topicname
三、API的使用,消费者和生产者之间的简单通信
生产者:(spark101节点)
- ./bin/kafka-console-producer.sh --broker-list spark101:,spark102:,spark103: --topic test03
消费者:
- .bin/kafka-console-consumer.sh --zookeeper spark101:,spark102:,spark103: --topic test03 --from-beginning
然后在生产者中输入数据,会在消费者那里接收到
kafka安装与简单使用的更多相关文章
- kafka安装和简单测试
kafka安装和简单测试 # 安装zookeeper(apache-zookeeper-3.5.6-bin)https://archive.apache.org/dist/zookeeper/zook ...
- 【Apache Kafka】二、Kafka安装及简单示例
(一)Apache Kafka安装 1.安装环境与前提条件 安装环境:Ubuntu16.04 前提条件: ubuntu系统下安装好jdk 1.8以上版本,正确配置环境变量 ubuntu系统下安 ...
- kafka集群安装及简单使用
关于kafka是什么及原理,请参考kafka官方文档的介绍:http://kafka.apache.org/documentation/#introduction ,英文不好的同学可以看这里http: ...
- kafka可视化工具安装及简单使用
一.安装 双击kafkatool_64bit.exe安装kafka可视化工具,并且C:\Windows\System32\drivers\etc配置HOSTS,打开HOSTS并添加: HOSTS添加: ...
- kafka安装与使用
一.下载 下载地址: http://kafka.apache.org/downloads.html kafka目录结构 目录 说明 bin 操作kafka的可执行脚本,还包含windows下脚本 co ...
- Spark简介安装和简单例子
Spark简介安装和简单例子 Spark简介 Spark是一种快速.通用.可扩展的大数据分析引擎,目前,Spark生态系统已经发展成为一个包含多个子项目的集合,其中包含SparkSQL.Spark S ...
- kafka安装和使用
kafka安装和启动 kafka的背景知识已经讲了很多了,让我们现在开始实践吧,假设你现在没有Kafka和ZooKeeper环境. Step 1: 下载代码 下载0.10.0.0版本并且解压它. &g ...
- Kafka安装教程(详细过程)
安装前期准备: 1,准备三个节点(根据自己需求决定) 2,三个节点上安装好zookeeper(也可以使用kafka自带的zookeeper) 3,关闭防火墙 chkconfig iptables o ...
- Zookeeper 安装与简单使用
一.安装Zookeeper 其实Zookeeper的安装特别简单,也不能算安装了,只需要将Zookeeper下载后解压,就完成了安装操作. 下载地址:http://zookeeper.apache.o ...
随机推荐
- 第一周Access课总结
一.问:这节课学到了什么知识? 答:这周课程迎来新的学习领域,作为初次学Access有了一定的了解,Access是office办公软件中的一个极为重要的组成部分,它可以对大量的数据进行存储,查找,统计 ...
- PMP:2.项目运行环境
事业环境因素(EEF):事业环境因素源于项目外部(往往是企业外部)的环境,是指项目团队不能控制的,将对项目产生影响.限制或指令作用的各种条件. 组织内部的事业环境因素: { uu组织文化.结构 ...
- SQL Server使用证书最小粒度授权
最近在项目中某个功能遇到了阻塞造成的Time out错误.所以需要在执行该功能的时候开启一个线程检测SQL Server中阻塞会话.但是程序本身使用的sql帐号本身不具备VIEW Sever Stat ...
- Dynamic Programming | Set 2 (Optimal Substructure Property)
正如我们在 Dynamic Programming | Set 1 (Overlapping Subproblems Property) 中讨论的那样,当一个问题具有以下2种性质时,建议使用动态规划来 ...
- 788. Rotated Digits
X is a good number if after rotating each digit individually by 180 degrees, we get a valid number t ...
- Javascript高级编程学习笔记(12)—— 引用类型(1)Object类型
前面的文章中我们知道JS中的值分为两种类型 基础类型的值和引用类型的值 基础类型的值我已经大概介绍了一下,今天开始后面几天我会为大家介绍一下引用类型的值 Object类型 对象是引用类型的值的实例,在 ...
- 走你!Github 开源整合
加入知识星球,最好的分享交流平台哦~ <我的知识星球,最好的分享交流平台>,一年的服务平台,对于一个成年人来说,就是小费了(更多详情,请点击文章了解)~ 走你!Github 开源整合 1. ...
- 鱼眼投影方式(Fisheye projection)的软件实现
简单实现 鱼眼模式(Fisheye)和普通的透视投影(Perspective projection),一个很大的区别就是鱼眼的投影算法是非线性的(non-linear),实际照相机的情况是在镜头外面包 ...
- U-boot中SPL功能和源码流程分析
在U-boot目录下,有个比较重要的目录就是SPL的,SPL到底是什么呢?为什么要用它呢? SPL(Secondary programloader)是uboot第一阶段执行的代码.主要负责搬移uboo ...
- Go标准库之读写文件(File)
Go标准库之读写文件(File) 创建一个空文件 package main import ( "log" "os" ) func main() { file, ...