kafka分布式搭建
kafka分布式搭建
(192.168.230.129)master
(192.168.230.130)slave1
(192.168.230.131)salve2
在master、slave1、slave2三台主机上配置kafaka分布式集群
准备工作:在三台机器上配置好zookeeper
1、解压kafka压缩文件到指定文件夹下
[root@master software]# tar -zxf kafka_2.10-0.8.1.1.tgz -C /opt/modules
2、改动/opt/modules/kafka_2.10-0.8.1.1/config文件夹下的server.properties文件
[root@master ~]# cd /opt/modules/kafka_2.10-0.8.1.1/config
[root@master config]# vi server.properties
broker.id=1
zookeeper.connect=master:2181,slave1:2181,slave2:2181
3、将master主机上kafka配置好的安装文件夹发送到slave1、salve2主机上
[root@master config]# scp -r /opt/modules/kafka_2.10-0.8.1.1/ root@slave1:/opt/modules/kafka_2.10-0.8.1.1/
[root@master config]# scp -r /opt/modules/kafka_2.10-0.8.1.1/ root@slave2:/opt/modules/kafka_2.10-0.8.1.1/
4、在slave1主机中改动/opt/modules/kafka_2.10-0.8.1.1/config/server.properties配置文件
[root@slave1 kafka_2.10-0.8.2.1]# vi config/server.properties
broker.id=2
5、在slave1主机中改动/opt/modules/kafka_2.10-0.8.1.1/config/server.properties配置文件
[root@slave2 kafka_2.10-0.8.1.1]# vi config/server.properties
broker.id=3
6、改动三个主机的/opt/modules/kafka_2.10-0.8.1.1/config/server.properties配置文件里的
[root@master kafka_2.10-0.8.1.1]# vi config/server.properties
#host.name=localhost
将#凝视去掉,并改成
master主机下:
host.name=master
[root@slave1 kafka_2.10-0.8.1.1]# vi config/server.properties
slave1主机下:
host.name=slave1
[root@slave2 kafka_2.10-0.8.1.1]# vi config/server.properties
slave2主机下:
host.name=slave2
7、在每一台节点上启动broker
在master主机上启动broker:
[root@master kafka_2.10-0.8.1.1]# ./bin/kafka-server-start.sh config/server.properties
在slave1主机上启动broker:
[root@slave1 kafka_2.10-0.8.1.1]# ./bin/kafka-server-start.sh config/server.properties
在slave2主机上启动broker:
[root@slave2 kafka_2.10-0.8.1.1]# ./bin/kafka-server-start.sh config/server.properties
8、在kafka集群中创建一个topic
在master主机中创建一个话题
[root@master kafka_2.10-0.8.1.1]# ./bin/kafka-topics.sh --create --zookeeper master:2181,slave1:2181,slave2:2181 --replication-factor 3 --partitions 3 --topic chinesescore
9、查看消息是否创建成功
[root@master kafka_2.10-0.8.1.1]# ./bin/kafka-topics.sh --list --zookeeper master:2181,slave1:2181,slave2:2181 --topic chinesescore
10、查看一个topic的分区及副本状态信息
[root@master kafka_2.10-0.8.1.1]# ./bin/kafka-topics.sh --describe --zookeeper master:2181,slave1:2181,slave2:2181 --topic chinesescore
11、用一个producer向某一个topic中写入消息
[root@master kafka_2.10-0.8.1.1]# ./bin/kafka-console-producer.sh --broker-list master:9092,slave1:9092,slave2:9092 --topic chinesescore
12、用一个comsumer从某一个topic中读取信息
[root@slave2 kafka_2.10-0.8.1.1]# ./bin/kafka-console-consumer.sh --zookeeper master:2181,slave1:2181,slave2:2181 --from-beginning --topic chinesescore
13、从zookeeper中查看Topic
[root@slave1 kafka_2.10-0.8.1.1]# zkCli.sh
[zk: localhost:2181(CONNECTED) 4] ls /brokers/topics
13使用Java编写kafka生产者程序:
用一个comsumer从某一个topic中读取信息
[sparse@hadoop-sparse kafka_2.10-0.8.1.1]$ ./bin/kafka-console-consumer.sh --zookeeper hadoop-sparse:2181 --from-beginning --topic orders
14、关闭Kafka服务
[root@master kafka_2.10-0.8.1.1]# ./bin/kafka-server-stop.sh
[root@slave1 kafka_2.10-0.8.1.1]# ./bin/kafka-server-stop.sh
[root@slave2 kafka_2.10-0.8.1.1]# ./bin/kafka-server-stop.sh
kafka分布式搭建的更多相关文章
- Kafka 分布式环境搭建
这篇文章将介绍如何搭建kafka环境,我们会从单机版开始,然后逐渐往分布式扩展.单机版的搭建官网上就有,比较容易实现,这里我就简单介绍下即可,而分布式的搭建官网却没有描述,我们最终的目的还是用分布式来 ...
- Kafka分布式环境搭建 (二)赞
这篇文章将介绍如何搭建kafka环境,我们会从单机版开始,然后逐渐往分布式扩展.单机版的搭建官网上就有,比较容易实现,这里我就简单介绍下即可,而分布式的搭建官网却没有描述,我们最终的目的还是用分布式来 ...
- 【入门教程】kafka环境搭建以及基础教程
问题导读 1.Kafka独特设计在什么地方?2.Kafka如何搭建及创建topic.发送消息.消费消息?3.如何书写Kafka程序?4.数据传输的事务定义有哪三种?5.Kafka判断一个节点是否活着有 ...
- ELK + kafka 分布式日志解决方案
概述 本文介绍使用ELK(elasticsearch.logstash.kibana) + kafka来搭建一个日志系统.主要演示使用spring aop进行日志收集,然后通过kafka将日志发送给l ...
- Kafka——分布式消息系统
Kafka——分布式消息系统 架构 Apache Kafka是2010年12月份开源的项目,采用scala语言编写,使用了多种效率优化机制,整体架构比较新颖(push/pull),更适合异构集群. 设 ...
- 【转】快速理解Kafka分布式消息队列框架
from:http://blog.csdn.net/colorant/article/details/12081909 快速理解Kafka分布式消息队列框架 标签: kafkamessage que ...
- kafka环境搭建及librdkafka测试
kafka环境搭建及librdkafka测试 (2016-04-05 10:18:25) 一.kafka环境搭建(转自http://kafka.apache.org/documentation.h ...
- Kafka 分布式消息队列介绍
Kafka 分布式消息队列 类似产品有JBoss.MQ 一.由Linkedln 开源,使用scala开发,有如下几个特点: (1)高吞吐 (2)分布式 (3)支持多语言客户端 (C++.Java) 二 ...
- KAFKA分布式消息系统[转]
KAFKA分布式消息系统 转自:http://blog.chinaunix.net/uid-20196318-id-2420884.html Kafka[1]是linkedin用于日志处理的分布式消 ...
随机推荐
- HDU 1251 统计难题 (字典树)(查询是否为前缀)
统计难题 Time Limit: 4000/2000 MS (Java/Others) Memory Limit: 131070/65535 K (Java/Others)Total Submi ...
- [BZOJ 1305] 跳舞
Link:https://www.lydsy.com/JudgeOnline/problem.php?id=1305 Solution: 发现res是否可行具有单调性,二分答案 容易看出每次check ...
- [HDU6268]Master of Subgraph
[HDU6268]Master of Subgraph 题目大意: 一棵\(n(n\le3000)\)个结点的树,每个结点的权值为\(w_i\).给定\(m(m\le10^5)\),对于任意\(i\i ...
- 统计正数和负数的个数,然后计算这些数的平均值 Exercise05_01
import java.util.Scanner; /** * @author 冰樱梦 * * */ public class Exercise05_01{ public static void ma ...
- python爬虫爬取煎蛋网妹子图片
import urllib.request import os def url_open(url): req = urllib.request.Request(url) req.add_header( ...
- mysql replication 复制的一些问题
1 过大的复制延迟 mysql 的复制延迟是一个常见问题,现在已经有一些解决方案,如淘宝开发的一些工具 2 没有磁盘空间 复制导致磁盘空间塞满,二进制日志.中继日志或临时文件把磁盘塞满,slave ...
- 不仅仅是浏览器 走近Chrome开发人员工具
Chrome浏览器以其简单.快速.安全.稳定.扩展丰富等特性受到了不少人的喜爱,除了这些特性,Chrome浏览器还提供了非常简单方便的开发人员工具,可以为开发提高效率,加上Chrome浏览器对HTML ...
- 使用原生JS进行字符串转对象
字符串转对象 目的 工作中如果需要原生 JS 完成字符转对象的话可以通过 JSON.parse(str), 但是这个方法是ES5中才出现, 如果需要兼容低版本就需要其它方法 使用原生 JS 解决字符串 ...
- Sublime text JsFormat插件的安装
javascript格式化插件JsFormat 1.下载这插件包 https://github.com/jdc0589/JsFormat 2.点击菜单:Preferences->Browse P ...
- unity 的视锥剔除和遮挡剔除
Regular frustum culling only renders objects within the camera’s view. This is automatic and always ...