本篇博客主要讲解在虚拟机安装之后,从如下五个方面进行讲解kafka的安装过程。

(1)如何配置虚拟机网络

(2)如何安装JDK

(3)如何安装zookeeper

(4)如何安装kafka

(5)kafka功能测试

如何配置虚拟机网


kafka一般安装到linux操作系统,当然windows下面也可以运行,作为程序员,还是在linux下面开发测试为主,因此我们首先安装3台linux虚拟机。

  • 虚拟机软件:vmware workstation 14 pro
  • 操作系统: CentOS-7-x86_64-DVD-1804

我们首先使用虚拟机软件vmware workstation 14 pro安装CentOS系统,相关教程网上很多,在此不必演示,安装之后再克隆两台,之后进行相关配置。

三台服务器IP规划为:

  • 192.168.40.101
  • 192.168.40.102
  • 192.168.40.103

规划依据:和windows下面的VMnet8的IP: 192.168.40.1在同一个网段,下面是宿主机windows下面使用ipconfig查看的内容:

以太网适配器 VMware Network Adapter VMnet8:

连接特定的 DNS 后缀 . . . . . . . :
本地链接 IPv6 地址. . . . . . . . : fe80::3d3c:50d2:c7d:e637%43
IPv4 地址 . . . . . . . . . . . . : 192.168.40.1
子网掩码 . . . . . . . . . . . . : 255.255.255.0
默认网关. . . . . . . . . . . . . :

(1)网络配置,需要如下三步:

1 切换root
2 修改文件   vi /etc/sysconfig/network-scripts/ifcfg-ens33 
3 重启网络   service network restart

其中第二步最为复杂:在ifcfg-ens33文件原有基础上:

修改内容为:

BOOTPROTO=static
ONBOOT=yes

增加内容为(注意IPADDR对于其它两台服务器为:192.168.40.102、192.168.40.103):

IPADDR=192.168.40.101
NETMASK=255.255.255.0
GATEWAY=192.168.1.1

(2)主机名配置

a:编辑/etc/sysconfig/network文件,添加如下配置。注意其它两台服务器名称。可以配置为 kafka-102、kafka-103

NETWORKING=yes
HOSTNAME=kafka-101

b:完成主机名映射为IP地址的功能。编辑/etc/hosts文件,增加如下配置,其他两台服务器也做类似配置。
192.168.1.101   kafka-101
c:重启服务器生效。

如何安装JDK


1、查看原有系统的jdk

[root@kafka-101 ~]# java -version
openjdk version "1.8.0_161"
OpenJDK Runtime Environment (build 1.8.0_161-b14)
OpenJDK 64-Bit Server VM (build 25.161-b14, mixed mode)

2、删除自带的openjdk(需切换至root用户)

rpm -qa| grep openjdk|xargs rpm -e --nodeps

3、新建jdk安装目录

mkdir /usr/local/java
cd /usr/local/java

4、下载jdk并上传至服务器/usr/local/java目录,并解压

tar -zxvf jdk-8u201-linux-x64.tar.gz

5、配置/etc/profile文件,添加如下内容

export JAVA_HOME=/usr/local/java/jdk1.8.0_201
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

6、使之生效

source /etc/profile

7、再次查看jdk信息,已经显示安装成功

[root@kafka-101 java]# java -version
java version "1.8.0_201"
Java(TM) SE Runtime Environment (build 1.8.0_201-b09)
Java HotSpot(TM) 64-Bit Server VM (build 25.201-b09, mixed mode)

8、注意问题:如果切换到普通用户,查看JDK版本不能正常执行命令,则新打开一个连接或者重启服务器再查看即可 。

如何安装zookeeper


kafka依赖zookeeper管理元信息,因此再安装kafka之前必须安装zookeeper。Zookeeper集群中只要有过半的节点是正常的情况下,那么整个集群对外就是可用的。正是基于这个特性,要将ZK集群的节点数量要为奇数(2n+1:如3、5、7个节点)较为合适。

1、端口规划

  • 服务器1:192.168.40.101 端口:2181、2881、3881

  • 服务器2:192.168.40.102 端口:2182、2882、3882
  • 服务器3:192.168.40.103 端口:2183、2883、3883

2、修改操作系统的hosts文件,添加与主机IP的映射,注意每个服务器都要添加下面完整的映射。

  • 192.168.40.101 kafka-101

  • 192.168.40.102 kafka-102
  • 192.168.40.103 kafka-103

3、将zookeeper的压缩包上传至各个服务器(/home/yefengyu/),解压各个服务器上的压缩包。

tar -zxvf zookeeper-3.4.13.tar.gz

4、进入zookeeper目录,创建两个文件夹

cd zookeeper-3.4.13/
mkdir data
mkdir logs

5、将conf下面的zoo_sample.cfg备份一份

cd conf
cp zoo_sample.cfg zoo.cfg

6、修改各个服务器上的zoo.cfg文件,内容如下

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/yefengyu/zookeeper-3.4.13/data
dataLogDir=/home/yefengyu/zookeeper-3.4.13/logs
clientPort=2181
server.1=kafka-101:2888:3888
server.2=kafka-102:2888:3888
server.3=kafka-103:2888:3888

7、在每个服务器的/home/yefengyu/zookeeper-3.4.13/data目录下面创建myid文件,里面只需要添加服务器序号

  • kafka-101 服务器中myid内容为:1

  • kafka-102 服务器中myid内容为:2
  • kafka-103 服务器中myid内容为:3

8、将zookeeper加入到系统环境变量

(1)vim /home/yefengyu/.bash_profile

(2)添加如下信息

#zookeeper env
export ZOOKEEPER_HOME=/home/yefengyu/zookeeper-3.4.13
export PATH=$ZOOKEEPER_HOME/bin:$PATH

(3)为了使得命令生效,需要执行:source /home/yefengyu/.bash_profile

9、启动zookeeper

zkServer.sh start
因为已经配置环境变量,所以可以在任何目录下面启动zookeeper。
[root@kafka-103 data]# zkServer.sh start
ZooKeeper JMX enabled by default
Using config: /home/yefengyu/zookeeper-3.4.13/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED

10、查看zookeeper是否启动

zkServer.sh status
可以看到结果如下:
[root@kafka-103 data]# zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /home/yefengyu/zookeeper-3.4.13/bin/../conf/zoo.cfg
Error contacting service. It is probably not running.
启动失败,可能是防火墙需要关闭,关闭防火墙之后再重新启动即可。
判断防火墙开启:systemctl is-enabled firewalld
查看防火墙状态:systemctl status firewalld
临时关闭防火墙:systemctl stop firewalld
永久关闭防火墙:systemctl disable firewalld
打开防火墙:systemctl enable firewalld
重启防火墙:systemctl restart firewalld

11、关闭zookeeper

zkServer.sh stop

12、日志设置

当前终端处于哪个目录,执行完zkServer.sh start命令, zookeeper.out就会写在哪个目录,可以修改日志输出到固定目录,方便问题定位。

修改 /home/yefengyu/zookeeper-3.4.13/bin/zkEnv.sh

if [ "x${ZOO_LOG_DIR}" = "x" ]
then
ZOO_LOG_DIR="."
fi

if [ "x${ZOO_LOG_DIR}" = "x" ]
then
ZOO_LOG_DIR="/home/yefengyu/zklogs/"
fi

如何安装kafka


1、在官网下载kafka安装包,上传至服务器 /home/yefengyu 目录下面
2、解压 tar -zxvf kafka_2.12-2.1.1.tgz
3、修改修改server.properties

(1)kafka连接zookeeper的地址,每个kafka的server.properties里面的这个配置都要一样

zookeeper.connect=192.168.40.101:2181,192.168.40.102:2181,192.168.40.103:2181

(2)kafka存放日志的目录

log.dirs=/home/yefengyu/kafka_2.12-2.1.1/kafka-logs

(3)kafka当前集群的唯一标识,每个机器的kafka服务都不一样

broker.id=1

(4)修改advertised.listeners,每个服务器上面的都不一样

advertised.listeners=PLAINTEXT://192.168.40.101:9092

4、启动kafka

cd /home/yefengyu/kafka_2.12-2.1.1/
./bin/kafka-server-start.sh config/server.properties &

5、查看是否启动成功 jps

[root@kafka-103 kafka_2.12-2.1.1]# jps
4567 Kafka
74476 QuorumPeerMain
9677 Jps

kafka功能测试


1、创建主题

./bin/kafka-topics.sh --create --zookeeper=192.168.40.101:2181,192.168.40.102:2181,192.168.40.103:2181 --replication-factor 3 --partitions 3 --topic ALARM

2、查看主题

./bin/kafka-topics.sh --list  --zookeeper=192.168.40.101:2181,192.168.40.102:2181,192.168.40.103:2181

3、发送消息

./bin/kafka-console-producer.sh --broker-list 192.168.40.101:9092,192.168.40.102:9092,192.168.40.103:9092 --topic ALARM

4、接收消息

./bin/kafka-console-consumer.sh --bootstrap-server 192.168.40.101:9092,192.168.40.102:9092,192.168.40.103:9092 --topic ALARM

5、关闭服务

./bin/kafka-server-stop.sh

kafka安装指导的更多相关文章

  1. Spark踩坑记——Spark Streaming+Kafka

    [TOC] 前言 在WeTest舆情项目中,需要对每天千万级的游戏评论信息进行词频统计,在生产者一端,我们将数据按照每天的拉取时间存入了Kafka当中,而在消费者一端,我们利用了spark strea ...

  2. 消息队列 Kafka 的基本知识及 .NET Core 客户端

    前言 最新项目中要用到消息队列来做消息的传输,之所以选着 Kafka 是因为要配合其他 java 项目中,所以就对 Kafka 了解了一下,也算是做个笔记吧. 本篇不谈论 Kafka 和其他的一些消息 ...

  3. kafka学习笔记:知识点整理

    一.为什么需要消息系统 1.解耦: 允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束. 2.冗余: 消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险. ...

  4. .net windows Kafka 安装与使用入门(入门笔记)

    完整解决方案请参考: Setting Up and Running Apache Kafka on Windows OS   在环境搭建过程中遇到两个问题,在这里先列出来,以方便查询: 1. \Jav ...

  5. kafka配置与使用实例

    kafka作为消息队列,在与netty.多线程配合使用时,可以达到高效的消息队列

  6. kafka源码分析之一server启动分析

    0. 关键概念 关键概念 Concepts Function Topic 用于划分Message的逻辑概念,一个Topic可以分布在多个Broker上. Partition 是Kafka中横向扩展和一 ...

  7. Kafka副本管理—— 为何去掉replica.lag.max.messages参数

    今天查看Kafka 0.10.0的官方文档,发现了这样一句话:Configuration parameter replica.lag.max.messages was removed. Partiti ...

  8. Kafka:主要参数详解(转)

    原文地址:http://kafka.apache.org/documentation.html ############################# System ############### ...

  9. kafka

    2016-11-13  20:48:43 简单说明什么是kafka? Apache kafka是消息中间件的一种,我发现很多人不知道消息中间件是什么,在开始学习之前,我这边就先简单的解释一下什么是消息 ...

随机推荐

  1. django4-模板,templates

    如何使用templates呢? 在views.py文件中,函数或者方法通过return render(request,"userInfor.html",{"info_li ...

  2. VMware中Centos7的静态ip设置

    网络连接方式:桥接模式.修改后确定.启动centos7,root账户进行登录. 2.修改网卡配置文件 (1) 打开网卡配置文件 vim /etc/sysconfig/network-scripts/i ...

  3. FastReport.net 使用 Winform WebForm打印

    delphi用的fastreport比较多 所以.net中也研究一下用法,这个打印控件还是很简单的 只要手动设计一下写少许代码就可以打印了 甚至可以写成通用代码 以后就可以不用写代码 安装demo会同 ...

  4. JavaScript 盖尔-沙普利算法

    最近在学 JavaScript , 为了尽快熟悉语法,决定移植以前写的盖尔-沙普利算法. c# 下的代码:https://www.cnblogs.com/aitong/p/10973774.html ...

  5. Git 关于Fast Forward提交的简单说明

    多人协同开发,使用Git经常会看到警告信息包含术语:fast forward, 这是何义? 简单来说就是提交到远程中心仓库的代码必须是按照时间顺序的. 比如A从中心仓库拿到代码后,对文件f进行了修改. ...

  6. ftp搭建记录

    1.安装vsftpd的rpm包 rpm -ivh vsftpd-2.0.5-16.el5_4.1.i386.rpm 使用YUM命令安装 yum install vsftpd -y. 2.ftp命令 s ...

  7. spring 事物(二)—— 编程式事物实现与扩展

    简介 使用TransactionTemplate 不需要显式地开始事务,甚至不需要显式地提交事务.这些步骤都由模板完成.但出现异常时,应通过TransactionStatus 的setRollback ...

  8. 2018-8-10-win10-UWP-用Path画图

    title author date CreateTime categories win10 UWP 用Path画图 lindexi 2018-08-10 19:16:50 +0800 2018-2-1 ...

  9. python安装pika模块rabbitmq

    1.pip install pika 2.如找不到 拷贝 D:\python\testmq\venv\Lib\site-packages  \pika目录

  10. 5分钟搞定android混淆(转)

    转自:https://www.jianshu.com/p/f3455ecaa56e 前言 混淆是上线前挺重要的一个环节.android使用的ProGuard,可以起到压缩,混淆,预检,优化的作用.但是 ...