kafka集群环境搭建(Linux)
一、准备工作
centos6.8和jvm需要准备64位的,如果为32位,服务启动的时候报java.lang.OutOfMemoryError: Map failed
的错误。
链接:http://pan.baidu.com/s/1pLbj8T1 密码:f4h0
centos6.8 64位
jdk-8u121-linux-x64.tar.gz
kafka_2.12-0.10.2.1.tgz
zookeeper-3.4.5.tar.gz
虚拟机资源有限,所以3台zookeeper服务器和3台kafka服务器都装在了192.168.137.176上面。
二、安装JAVA
在CentOS6.8安装完以后,系统默认安装了open jdk1.7.0,我们在这里选择安装自己的jdk1.8.0 64位。
(1)tar -zxvf /home/test/jdk-8u121-linux-x64.tar.gz
mv jdk1.8.0_121 /usr/local/jdk1.8.0
在/usr/local 路径下面多了一个 jdk1.8.0文件夹。
(2)配置环境变量
在Linux系统中,一般安装软件的配置信息都是存放在 /etc/profile 文件里面。
vim /etc/profile加入下面设置
export JAVA_HOME=/usr/local/jdk1.8.0
export JRE_HOME=${JAVA_HOME}/jre
export PATH=.:${JAVA_HOME}/bin:$PATH
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
(3)source /etc/profile // 这条命令是让配置马上生效
(4)输入 java -version ,结果很遗憾,还是之前CentOS为我们安装好的jdk,说明我们的配置没有生效,
所以此时我们若要使用自己的jdk来替换系统自带的,还需要进行如下设置:
update-alternatives --install /usr/bin/java java /usr/local/jdk1.8.0/bin/java 50
update-alternatives --config java 选择需要的版本
(5)查看链接情况
输入 ll /usr/bin/java
输出 lrwxrwxrwx. 1 root root 22 Jun 2 09:25 /usr/bin/java -> /etc/alternatives/java
输入 ll /etc/alternatives/java
输出 lrwxrwxrwx. 1 root root 26 Jun 2 09:25 /etc/alternatives/java -> /usr/local/jdk1.8.0/bin/java
三、安装zookeeper服务器集群
zookeeper服务器集群规模不小于3个节点。
1.zookeeper服务安装
进行解压: tar -zxvf zookeeper-3.4.5.tar.gz
重命名: mv zookeeper-3.4.5 /usr/local/zookeeper
2.修改环境变量
vi /etc/profile
export ZOOKEEPER_HOME=/usr/local/zookeeper
export PATH=.:${ZOOKEEPER_HOME}/bin:${JAVA_HOME}/bin:$PATH
刷新: source /etc/profile
3.zookeeper配置文件准备
cd /usr/local/zookeeper/conf
cp zoo_sample.cfg zoo1.cfg
cp zoo_sample.cfg zoo2.cfg
cp zoo_sample.cfg zoo3.cfg
zoo1.cfg配置如下
clientPort=2181
dataDir=/usr/local/zookeeper/data/zoo1
tickTime=2000
initLimit=10
syncLimit=5
server.0=127.0.0.1:2888:3888
server.1=127.0.0.1:2889:3889
server.2=127.0.0.1:2890:3890
zoo2.cfg配置如下
clientPort=2182
dataDir=/usr/local/zookeeper/data/zoo2
tickTime=2000
initLimit=10
syncLimit=5
server.0=127.0.0.1:2888:3888
server.1=127.0.0.1:2889:3889
server.2=127.0.0.1:2890:3890
zoo3.cfg配置如下
clientPort=2183
dataDir=/usr/local/zookeeper/data/zoo3
tickTime=2000
initLimit=10
syncLimit=5
server.0=127.0.0.1:2888:3888
server.1=127.0.0.1:2889:3889
server.2=127.0.0.1:2890:3890
4.创建datadir和服务器标识文件
cd /usr/local/zookeeper/
创建文件夹:mkdir -p data/zoo1 data/zoo2 data/zoo3
cd data/zoo1
创建文件myid并填写内容为0:vi myid (内容为服务器标识 : 0)
其他两个服务器的值修改为1和2
5.启动zookeeper
zkServer.sh start /usr/local/zookeeper/conf/zoo1.cfg
zkServer.sh start /usr/local/zookeeper/conf/zoo2.cfg
zkServer.sh start /usr/local/zookeeper/conf/zoo3.cfg
查询状态:(一个leader和俩个follower)
zkServer.sh status /usr/local/zookeeper/conf/zoo1.cfg
zkServer.sh status /usr/local/zookeeper/conf/zoo2.cfg
zkServer.sh status /usr/local/zookeeper/conf/zoo3.cfg
停止服务:zkServer.sh stop
启动验证:输入jps,存在 3个QuorumPeerMain 进程的话,就说明 Zookeeper 启动成功了。
四、安装kafka集群
1.kafka服务安装
tar -zxvf kafka_2.12-0.10.2.1.tgz
mv kafka_2.12-0.10.2.1 /usr/local/kafka
2.配置文件准备
config/server.properties参数说明
cd /usr/local/kafka/config/
broker.id= #当前机器在集群中的唯一标识,和zookeeper的myid性质一样
listeners = PLAINTEXT://your.host.name:#当前kafka对外提供服务的端口默认是9092
num.network.threads= #borker进行网络处理的线程数
num.io.threads= #borker进行I/O处理的线程数
log.dirs=/usr/local/kafka/kafkalogs1/ #消息存放的目录,可以配置为逗号分割的表达式,上面的num.io.threads要大于这个目录的个数。如果配置多个目录,新创建topic的消息持久化的地方是分区数最少的那一个。
socket.send.buffer.bytes= #发送缓冲区buffer大小,数据不是一下子就发送的,先会存储到缓冲区,到达一定的大小后再发送以提高性能。
socket.receive.buffer.bytes= #kafka接收缓冲区大小,当数据到达一定大小后再序列化到磁盘。
socket.request.max.bytes= #向kafka请求消息或者向kafka发送消息的请求的最大数,这个值不能超过java的堆栈大小。
num.partitions= #默认的分区数,一个topic默认1个分区数
log.retention.hours= #默认消息的最大持久化时间,168小时,7天
message.max.byte= #消息保存的最大值5M
default.replication.factor= #kafka保存消息的副本数,如果一个副本失效了,另一个还可以继续提供服务
replica.fetch.max.bytes= #取消息的最大值
log.segment.bytes= #kafka的消息是以追加的形式落地到文件,当超过这个值的时候,kafka会新起一个文件
log.retention.check.interval.ms= #每隔300000毫秒去检查上面配置的log失效时间,到目录查看是否有过期的消息如果有,删除
log.cleaner.enable=false #是否启用log压缩,一般不用启用,启用的话可以提高性能
zookeeper.connect=localhost: #设置zookeeper的连接端口
配置文件修改
broker.id= #每台服务器的broker.id都不能相同
listeners=PLAINTEXT://192.168.137.176:9092
log.dirs=/usr/local/kafka/kafkalogs1/ #增加下面设置
message.max.byte=
default.replication.factor=
replica.fetch.max.bytes= #设置zookeeper的连接端口
zookeeper.connect=127.0.0.1:,127.0.0.1:,127.0.0.1:
其他2个服务器配置文件
cp server.properties server-1.properties
cp server.properties server-2.properties
broker.id= #每台服务器的broker.id都不能相同
listeners=PLAINTEXT://192.168.137.176: log.dirs=/usr/local/kafka/kafkalogs2/ #增加下面设置
message.max.byte=
default.replication.factor=
replica.fetch.max.bytes= #设置zookeeper的连接端口
zookeeper.connect=127.0.0.1:,127.0.0.1:,127.0.0.1:
broker.id= #每台服务器的broker.id都不能相同
listeners=PLAINTEXT://192.168.137.176: log.dirs=/usr/local/kafka/kafkalogs3/ #增加下面设置
message.max.byte=
default.replication.factor=
replica.fetch.max.bytes= #设置zookeeper的连接端口
zookeeper.connect=127.0.0.1:,127.0.0.1:,127.0.0.1:
3.服务器启动
cd /usr/local/kafka/
setsid bin/kafka-server-start.sh config/server.properties &
setsid bin/kafka-server-start.sh config/server-1.properties &
setsid bin/kafka-server-start.sh config/server-2.properties &
setsid作用是让服务在linux客户端退出时依然启动。
4.服务器验证
输入jps,输出如下:3个zookeeper服务,3个kafka服务。
Kafka
Kafka
QuorumPeerMain
QuorumPeerMain
Jps
QuorumPeerMain
Kafka
五、测试kafka集群
1.创建topic
bin/kafka-topics.sh --create --zookeeper localhost: --replication-factor --partitions --topic my-replicated-topic
2.查询topic状态
bin/kafka-topics.sh --describe --zookeeper localhost: --topic my-replicated-topic
Topic:my-replicated-topic PartitionCount: ReplicationFactor: Configs:
Topic: my-replicated-topic Partition: Leader: Replicas: ,, Isr: ,,
3.发布消息
bin/kafka-console-producer.sh --broker-list 192.168.137.176: --topic my-replicated-topic
4.接收消息
bin/kafka-console-consumer.sh --bootstrap-server 192.168.137.176: --from-beginning --topic my-replicated-topic
5.查看topic
bin/kafka-topics.sh --list --zookeeper localhost:
kafka集群的创建已经完成。
kafka集群环境搭建(Linux)的更多相关文章
- kafka 集群环境搭建 java
简单记录下kafka集群环境搭建过程, 用来做备忘录 安装 第一步: 点击官网下载地址 http://kafka.apache.org/downloads.html 下载最新安装包 第二步: 解压 t ...
- 数据源管理 | Kafka集群环境搭建,消息存储机制详解
本文源码:GitHub·点这里 || GitEE·点这里 一.Kafka集群环境 1.环境版本 版本:kafka2.11,zookeeper3.4 注意:这里zookeeper3.4也是基于集群模式部 ...
- 大数据 -- zookeeper和kafka集群环境搭建
一 运行环境 从阿里云申请三台云服务器,这里我使用了两个不同的阿里云账号去申请云服务器.我们配置三台主机名分别为zy1,zy2,zy3. 我们通过阿里云可以获取主机的公网ip地址,如下: 通过secu ...
- 【Kafka】Kafka集群环境搭建
目录 一.初始环境准备 二.下载安装包并上传解压 三.修改配置文件 四.启动ZooKeeper 五.启动Kafka集群 一.初始环境准备 必须安装了JDK和ZooKeeper,并保证Zookeeper ...
- Kafka集群环境搭建
Kafka是一个分布式.可分区.可复制的消息系统.Kafka将消息以topic为单位进行归纳:Kafka发布消息的程序称为producer,也叫生产者:Kafka预订topics并消费消息的程序称为c ...
- Kafka集群环境搭建(2.9.2-0.8.2.2)
Kafka是一个分布式.可分区.可复制的消息系统.Kafka将消息以topic为单位进行归纳:Kafka发布消息的程序称为producer,也叫生产者:Kafka预订topics并消费消息的程序称为c ...
- Ubuntu下kafka集群环境搭建及测试
kafka介绍: Kafka[1是一种高吞吐量[2] 的分布式发布订阅消息系统,有如下特性: 通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能 ...
- 大数据 -- Hadoop集群环境搭建
首先我们来认识一下HDFS, HDFS(Hadoop Distributed File System )Hadoop分布式文件系统.它其实是将一个大文件分成若干块保存在不同服务器的多个节点中.通过联网 ...
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十)安装hadoop2.9.0搭建HA
如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...
随机推荐
- android ART hook
0x00 前言 之前一直都是在Dalvik 虚拟机上在折腾,从Android 4.4开始开始引入ART,到5.0已经成为默认选择.而且最近看到阿里开源的 Dexposed 框架,已经提供了对于andr ...
- 对python pickle的理解
python 提供了pickle模块,能将对象进行序列化,将对象以文件形式存放在磁盘. 几乎所有的数据类型(列表,字典,集合,类等)都可以用pickle来序列化.但是序列化后的数据可读性很差. pic ...
- Java 8 新特性-菜鸟教程 (8) -Java 8 日期时间 API
Java 8 日期时间 API Java 8通过发布新的Date-Time API (JSR 310)来进一步加强对日期与时间的处理. 在旧版的 Java 中,日期时间 API 存在诸多问题,其中有: ...
- SpringBoot----跨域配置
前言: 当它请求的一个资源是从一个与它本身提供的第一个资源的不同的域名时,一个资源会发起一个跨域HTTP请求(Cross-site HTTP request).比如说,域名A ( http://dom ...
- Linux 源码安装 FFmpeg
加班次数频繁,已经快一年没有写博了.由于此次在项目中使用到了 FFmpeg 来处理音视频,顾记录下在 Linux 系统中源码安装 FFmpeg 以便不时之需. 1. 安装 yasm yasm 是一个汇 ...
- .Net Core中的日志组件(Logging)
1.介绍 Logging组件是微软实现的日志记录组件包括控制台(Console).调试(Debug).事件日志(EventLog)和TraceSource,但是没有实现最常用用的文件记录日志功能(可以 ...
- 复制神器Ditto使用方法详细说明
1.普通的粘贴快捷键设置: 我设置成ctrl+1 --> ctrl+10.但是注意,有些程序里ctrl有特殊功能,这样ctrl+[0-9]键会出现问题,所以建议将粘贴快捷键设置的复杂一点,例如c ...
- 【转载】Sqlserver的SQL语句实现分页查询
在应用程序的开发中,如果数据库中的数据量过于的庞大,则需要针对查询数据做分页处理,取出对应分页中的数据,在Sqlserver分页的语句写法中,有两种比较常用,一种是数据表中含有自增量Id的情况,可以根 ...
- SVN外网访问内网的操作步骤
外网访问内网SVN 需要将路由映射到VisualSVN server 的443端口 将外网的端口从路由器上进行映射到内网端口,例如将外网的6000端口映射为内网的443端口,443为svn服务器默认端 ...
- Minitab系列 前言
Matlab 在有些时候太过去强大,强大到几乎所有的数学问题都可以解决. 在这里,Matlab就像数学版的Vim,对于一般的使用者还是不想编程,想要更加的直接直观的数学处理工具,这里向大家介绍mini ...