kafka 配置启动
Kafka配置(注意log.dirs不要配置在tmp目录下,因为该目录会被linux定时任务删除,会导致kafka崩溃)
需要三个Kafka实例,分别安装在下面三个机器上:
192.168.240.167
192.168.240.168
192.168.240.169
第一步,修改192.168.240.167机器上的Kafka配置
config/server.properties:
broker.id=1
listeners=PLAINTEXT://192.168.240.167:9093 这里必须加上IP或者HOST,否则上报到ZK的地址会变成127.0.0.1
num.partitions=10 默认分区数量需要估算,一般是一个进程占用一个partition
zookeeper.connect=192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181
第二步,修改192.168.240.168机器上的Kafka配置
config/server.properties:
broker.id=2
listeners=PLAINTEXT://192.168.240.168:9093 这里必须加上IP或者HOST,否则上报到ZK的地址会变成127.0.0.1
num.partitions=10 默认分区数量需要估算,一般是一个进程占用一个partition
zookeeper.connect=192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181
第三步,修改192.168.240.169机器上的Kafka配置
config/server.properties:
broker.id=3
listeners=PLAINTEXT://192.168.240.169:9093 这里必须加上IP或者HOST,否则上报到ZK的地址会变成127.0.0.1
num.partitions=10 默认分区数量需要估算,一般是一个进程占用一个partition
zookeeper.connect=192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181
第四步,启动Kafka进程
三台机器分别进入Kafka根目录,运行:
nohup bin/kafka-server-start.sh config/server.properties > kafka.out &
第五步,创建Topic
进入任意一台机器上的Kafka根目录,运行:
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.core
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.match
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.battle
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.monitor
查看Topic信息
bin/kafka-topics.sh --describe --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --topic threebody.core
kafka 配置启动的更多相关文章
- kafka配置监控和消费者测试
概念 运维 配置 监控 生产者与消费者 流处理 分区partition 一定条件下,分区数越多,吞吐量越高.分区也是保证消息被顺序消费的基础,kafka只能保证一个分区内消息的有序性 副本 每个分区有 ...
- hadoop生态搭建(3节点)-08.kafka配置
如果之前没有安装jdk和zookeeper,安装了的请直接跳过 # https://www.oracle.com/technetwork/java/javase/downloads/java-arch ...
- Kafka配置信息
Kafka配置信息 broker配置信息 属性 默认值 描述 broker.id 必填参数,broker的唯一标识 log.dirs /tmp/kafka-logs Kafka数据存放的目录.可以指定 ...
- windows下kafka配置入门 示例
实验平台与软件: 操作系统:windows7 32 位 java 开发包: jdk1.8.0_144 集群: zookeeper-3.3.6 消息队列: kafka_2.11-0.11.0.1 安装 ...
- windows下配置启动多个mysql服务
查找配置做下记录 先安装mysql5.6,安装不在介绍 接下来配置启动另一个mysql服务, 1:先到服务里停止在运行的mysql服务 2:到mysql的安装目录下(默认安装目录在c:\Program ...
- ibatis动态sql配置启动时提示:The content of elements must consist of well-formed character data...
ibatis动态sql配置启动时提示:The content of elements must consist of well-formed character data... 2012-07-18 ...
- 5.4.2 使用配置启动firefox
1.使用firefox的本地配置加载浏览器 使用本地配置加载浏览器,代码如下. 这样运行后,可以看到firebug等插件都已启动. 练习:假设做性能测试时,需要获取某个状况下的页面网络运行参数.要求完 ...
- HBase配置&启动脚本分析
本文档基于hbase-0.96.1.1-cdh5.0.2,对HBase配置&启动脚本进行分析 date:2016/8/4 author:wangxl HBase配置&启动脚本分析 剔除 ...
- Spark配置&启动脚本分析
本文档基于Spark2.0,对spark启动脚本进行分析. date:2016/8/3 author:wangxl Spark配置&启动脚本分析 我们主要关注3类文件,配置文件,启动脚本文件以 ...
随机推荐
- day5作业(基本数据类型字符串,列表)
#coding:utf-8'''默写99乘法标 金字塔 必做: 1.昨日选做题 博客中有 http://www.cnblogs.com/linhaifeng/articles/7133357.html ...
- MySQL提供了以下三种方法用于获取数据库对象的元数据
MySQL提供了以下三种方法用于获取数据库对象的元数据: 1)show语句 2)从INFORMATION_SCHEMA数据库里查询相关表 3)命令行程序,如mysqlshow, mysqldump 用 ...
- eclipse windowbuilder palette 空白
今天在 eclipse 上安装了 windowbuilder 插件,但是 palette 一直是空白的,不能放控件. 版本 eclipse 4.9.0, windowbuilder 1.9.0. 经过 ...
- python中strip、startswith、endswith
strip(rm)用来删除元素内的空白符: rm对应要删除空白符的元素,当rm为空(strip())时删除所有元素的空白符 startswith.endswith用来查找开头或结尾条件的元素 例子: ...
- C#利用反射动态调用DLL并返回结果,和获取程序集的信息
反射的基本概念: .Net Framework 中提供了反射机制,可以再加载程序运行时,动态获取和加载程序集,并且可以获取到程序集的信息 创建Assembly和Entity两个程序集,在Assembl ...
- 30. linux用su oracle 切换用户报“连接数据库报-bash-4.1$”处理方式
直接在-bash-4.1$后面加上export PS1="[\u@\h \w]"即可,如下: [root@localhost usr]# su oracle-bash-4.1$ e ...
- Retrofit添加自定义转换器
Retrofit2开始支持多种 Converter 并存,在之前,如果你遇到这种情况:一个 API 请求返回的结果需要通过 JSON 反序列化,另一个 API 请求需要通过 proto 反序列化,唯一 ...
- redis如何清除所有的key
redis比memcache好的地方之一,如果memcache,恐怕就得关掉重启了. 1 使用cli FLUSHDB 清除一个数据库,FLUSHALL清除整个redis数据. 2 使用shell re ...
- eclipse工作区(workspace)常用设置(preferences)
切换工作区 新建一个作为工作区的文件夹 File -> Switch Workspace -> Other... -> browse,定位到新的指定工作区文件夹即可. 切换到新的工作 ...
- CSS内容简单总结
day50 1. 内容回顾 1. 伪类和伪元素 1. 伪类 1. :link 2. :visited 3. :hover ...