一、Zookeeper 配置文件说明:

# the directory where the snapshot is stored.

dataDir=/tmp/zookeeper

# the port at which the clients will connect

clientPort=2181

# disable the per-ip limit on the number of connections since this is a non-production config

maxClientCnxns=0~

使用zookeeper 工具进行验证:

在kafka的bin目录下的zookeeper-shell.sh 192.168.7.221:2181/

二、Kafka验证

往往错误不能启动的原因是因为配置文件使用的是默认的/tmp/kafka-logs 的目录我们进行替换为我们自定义的目录

如编辑service.properties 中的log.dirs=../kafkadata

1.创建topic:

./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

Created topic "test".

2.查看topic信息

[root@localhost bin]# ./kafka-topics.sh --list --zookeeper localhost:2181

test

3.展示topic

[root@gbd209 bin]# ./kafka-topics.sh -list --zookeeper gbd209:,gbd210:,gbd211:,gbd212:
mykafka - marked for deletion
test
test1
testKafka
testKafka_par100_rep2
testKafka_par10_rep1
testKafka_par10_rep2
testKafka_par1_rep1
testKafka_par1_rep2
topicVoice

4.生产者脚本启动

./kafka-console-producer.sh --topic test0214 --broker-list gbd209:

5.消费者脚本启动

./kafka-console-consumer.sh --zookeeper gbd209:,gbd210:,gbd211:,gbd212: --from-beginning --topic test0214 --consumer.config ../config/consumer.properties

6.topic删除脚本

    1、删除kafka存储目录(server.properties文件log.dirs配置,默认为"/tmp/kafka-logs")相关topic目录
    2、Kafka 删除topic的命令是:

./bin/kafka-topics --delete --zookeeper 【zookeeper server】 --topic 【topic name】

    如果kafaka启动时加载的配置文件中server.properties没有配置delete.topic.enable=true,那么此时的删除并不是真正的删除,而是把topic标记为:marked for deletion

    你可以通过命令:./bin/kafka-topics --zookeeper 【zookeeper server】 --list 来查看所有topic

7. 修改topic中分区数

topic中的分区书之只能增加不能减少

./kafka-topics.sh --zookeeper localhost:2182  --alter --partitions 20 --topic test

三、多副本测试

1.创建:

./kafka-topics.sh --create --zookeeper gbd209:,gbd210:,gbd211:,gbd212: --replication-factor  --partitions  --topic test0215

2.查看全部

./kafka-topics.sh --list --zookeeper gbd209:,gbd210:,gbd211:,gbd212:

3.查看全部描述

./kafka-topics.sh --describe --zookeeper gbd209:,gbd210:,gbd211:,gbd212:

4.查看单个描述

./kafka-topics.sh --describe --topic test0215 --zookeeper gbd209:,gbd210:,gbd211:,gbd212:
Topic:test0215 PartitionCount: ReplicationFactor: Configs:
Topic: test0215 Partition: Leader: Replicas: ,,, Isr: ,,,
Topic: test0215 Partition: Leader: Replicas: ,,, Isr: ,,,
Topic: test0215 Partition: Leader: Replicas: ,,, Isr: ,,,
Topic: test0215 Partition: Leader: Replicas: ,,, Isr: ,,,

5.启动生产者

./kafka-console-producer.sh --topic test0215 --broker-list gbd209:,gbd210:,gbd211:,gbd212:

6.启动消费者

./kafka-console-consumer.sh --zookeeper gbd209:,gbd210:,gbd211:,gbd212: --from-beginning --topic test0215 --consumer.config ../config/consumer.properties

四、参考博客

http://www.jasongj.com/2015/08/09/KafkaColumn4/

Kafka安装验证及其注意的更多相关文章

  1. Kafka安装及开启SASL_PLAINTEXT认证(用户名和密码认证)

    前些日子要封装一个kafka的客户端驱动,配置了下kafka环境,发现配置复杂度完爆rabbitmq很多倍啊,而且发布订阅模式使用起来也很麻烦,可能就胜在分布式了吧. kafka需要java环境,自行 ...

  2. kafka学习1:kafka安装

    一.环境准备 1.jdk 如果不会安装linux下的jdk,参考这篇文章:http://www.cnblogs.com/gudi/p/7812033.html   2.kafka wget –c ht ...

  3. zookeeper与kafka安装部署及java环境搭建(发布订阅模式)

    1. ZooKeeper安装部署 本文在一台机器上模拟3个zk server的集群安装. 1.1. 创建目录.解压 cd /usr/ #创建项目目录 mkdir zookeeper cd zookee ...

  4. kafka安装和使用

    kafka安装和启动 kafka的背景知识已经讲了很多了,让我们现在开始实践吧,假设你现在没有Kafka和ZooKeeper环境. Step 1: 下载代码 下载0.10.0.0版本并且解压它. &g ...

  5. 【Apache Kafka】二、Kafka安装及简单示例

    (一)Apache Kafka安装 1.安装环境与前提条件   安装环境:Ubuntu16.04   前提条件: ubuntu系统下安装好jdk 1.8以上版本,正确配置环境变量 ubuntu系统下安 ...

  6. hadoop 之 kafka 安装与 flume -> kafka 整合

    62-kafka 安装 : flume 整合 kafka 一.kafka 安装 1.下载 http://kafka.apache.org/downloads.html 2. 解压 tar -zxvf ...

  7. Kafka安装及部署

    安装及部署 一.环境配置 操作系统:Cent OS 7 Kafka版本:0.9.0.0 Kafka官网下载:请点击 JDK版本:1.7.0_51 SSH Secure Shell版本:XShell 5 ...

  8. [Kafka] - Kafka 安装介绍

    Kafka是由LinkedIn公司开发的,之后贡献给Apache基金会,成为Apache的一个顶级项目,开发语言为Scala.提供了各种不同语言的API,具体参考Kafka的cwiki页面: Kafk ...

  9. Kafka 安装配置 windows 下

    Kafka 安装配置 windows 下 标签(空格分隔): Kafka Kafka 内核部分需要安装jdk, zookeeper. 安装JDK 安装JDK就不需要讲解了,安装完配置下JAVA_HOM ...

随机推荐

  1. Tuscany glossary of terms

    SOA(service-oriented architecture) 面向服务的架构 解决问题:面向服务.多语言.多种数据格式.多协议 SCA(Service Component Architectu ...

  2. 关于51精确延时及keil仿真延时时间

    转自:http://blog.sina.com.cn/s/blog_980e19e00101b5dh.html 有时候需要精确的延时,比如18B20温度传感器对时序要求非常严格,必须精确到微秒级别 一 ...

  3. VS团队资源管理器(VS自带git)使用说明_使用VS自带git推送到远程存储库

    使用git存储库是相当好的习惯,每次码完代码就推送到远程存储库,万一不小心把本地代码搞废了,或者硬盘坏了,或者中了勒索病毒,本地代码丢失了还能从服务器上下载.我曾经就中了一次勒索病毒,本地电脑上的所有 ...

  4. 0523 Scrum项目6.0

    0523 团队项目6.0 一,组员任务完成情况 首页设计初步完成但是需要优化界面,只能简单的输出信息和在首页进行登录.界面极其简单.使用了Javabean的设计模式,进行改进,使得页面的里的代码看起来 ...

  5. Mscomm控件安装问题 License information for TMSComm not found.

    操作步骤: 1.打开delphi,菜单选择compoents->import Activex control,然后选择那个mscomm32.ocx安装即可. 2.注册MScomm控件   开始- ...

  6. oracle 取俩个字符串的差集

    思路: --funcation RemoveSameStr(in_str,splitStr) ;用于去除重复值 ; SELECT b.memberid, RemoveSameStr(wm_concat ...

  7. 错误“AxImp.exe”已退出,代码为 -1163019603【转载及个人看法】

    http://blog.csdn.net/duguduchong/article/details/17166123 最近使用vs2010  在重新生成解决方案的时候出现 “AxImp.exe”已退出, ...

  8. 浅谈JavaScript预编译原理

    这两天又把js的基础重新复习了一下,很多不懂得还是得回归基础,大家都知道js是解释性语言,就是编译一行执行一行,但是在执行的之前,系统会做一些工作: 1,语法分析: 2,预编译: 3,解释执行. 语法 ...

  9. Django 2.0 学习(21):Django Session

    Django Session Session 与Cookie 1.简介 1.Cookie不属于http协议范围,由于http协议无法保持状态,但实际情况,我们又需要"保持状态",因 ...

  10. NOIP2011

    DAY1 铺地毯 (carpet.cpp/c/pas) 模拟 倒序离线处理 program carpet; var l,w:..,..] of longint; n,i,a,b,g,k,x,y:lon ...