一、kafka安装
  安装是非常简单的,现在推荐安装0.8的版本,这个版本是非常稳定的,而且公司里面也多用此版本。
  简单的安装:
  这个是我使用的版本,kafka_2.11-0.8.2.2.tgz
  直接tar -zxvf kafka_2.11-0.8.2.2.tgz -C /soft/apps/kafka
  ok
  解压后进入,安装的目录。
  找到config目录
  
  修改里面的server.properties文件
  

  文件的详细属性为:

  1. #broker的全局唯一编号,不能重复
  2. broker.id=
  3.  
  4. #用来监听链接的端口,producer或consumer将在此端口建立连接
  5. port=
  6.  
  7. #处理网络请求的线程数量
  8. num.network.threads=
  9.  
  10. #用来处理磁盘IO的线程数量
  11. num.io.threads=
  12.  
  13. #发送套接字的缓冲区大小
  14. socket.send.buffer.bytes=
  15.  
  16. #接受套接字的缓冲区大小
  17. socket.receive.buffer.bytes=
  18.  
  19. #请求套接字的缓冲区大小
  20. socket.request.max.bytes=
  21.  
  22. #kafka消息存放的路径
  23. log.dirs=/export/servers/logs/kafka
  24.  
  25. #topic在当前broker上的分片个数
  26. num.partitions=
  27.  
  28. #用来恢复和清理data下数据的线程数量
  29. num.recovery.threads.per.data.dir=
  30.  
  31. #segment文件保留的最长时间,超时将被删除
  32. log.retention.hours=
  33.  
  34. #滚动生成新的segment文件的最大时间
  35. log.roll.hours=
  36.  
  37. #日志文件中每个segment的大小,默认为1G
  38. log.segment.bytes=
  39.  
  40. #周期性检查文件大小的时间
  41. log.retention.check.interval.ms=
  42.  
  43. #日志清理是否打开
  44. log.cleaner.enable=true
  45.  
  46. #broker需要使用zookeeper保存meta数据
  47. zookeeper.connect=192.168.52.106:,192.168.52.107:,192.168.52.108:
  48.  
  49. #zookeeper链接超时时间
  50. zookeeper.connection.timeout.ms=
  51.  
  52. #partion buffer中,消息的条数达到阈值,将触发flush到磁盘
  53. log.flush.interval.messages=
  54.  
  55. #消息buffer的时间,达到阈值,将触发flush到磁盘
  56. log.flush.interval.ms=
  57.  
  58. #删除topic需要server.properties中设置delete.topic.enable=true否则只是标记删除
  59. delete.topic.enable=true
  60.  
  61. #此处的host.name为本机IP(重要),如果不改,则客户端会抛出:Producer connection to localhost: unsuccessful 错误!
  62. host.name=spark101

ok,根据上面的配置修改自己的配置i文件,切记broker.id属性,全局唯一

然后分发文件,分发后修改broker.id和host.name属性

二、简单的使用

  注意:kafka的使用,需要zookeeper的支持,请切记在启动kafka之前,zookeeper集群已启动完毕。

  首先,启动kafka,启动成功后会jps查看会有一个kafka进程,若是启动失败,请仔细检查配置文件。

  1. ./bin/kafka-server-start.sh -daemon config/server.properties

  创建topic

  1. ./bin/kafka-topics.sh --create --zookeeper spark101:,spark102:,spark103: --partition --replication-factor --topic test01

  查看topic

  1. ./bin/kafka-topics.sh --list --zookeeper spark101:2181,spark102:2181,spark103:2181

  查看详情

  1. ./bin/kafka-topics.sh --describe --zookeeper spark101:,spark102:,spark103: --topic test01

  删除(若是配置文件中delete.topic.enable属性为true会直接删除,若是没有配置默认只是标记,并未真正删除)

  1. ./bin/kafka-topics.sh --delete --zookeeper spark101:,spark102:,spark103: --topic test01

  说明:若是没有true,同时又想删除干净的话,逐步删除一下文件

  1. 1、删除配置真实数据目录下的数据文件
    2、然后删除zookeeper下面的信息
  2.   rmr /admin/delete_topics/topicname
  3.   rmr /config/topics/topicname
  4.   rmr /brokers/topics/topicname

  三、API的使用,消费者和生产者之间的简单通信

  生产者:(spark101节点)

  1. ./bin/kafka-console-producer.sh --broker-list spark101:,spark102:,spark103: --topic test03

  消费者:

  1. .bin/kafka-console-consumer.sh --zookeeper spark101:,spark102:,spark103: --topic test03 --from-beginning

  然后在生产者中输入数据,会在消费者那里接收到

kafka安装与简单使用的更多相关文章

  1. kafka安装和简单测试

    kafka安装和简单测试 # 安装zookeeper(apache-zookeeper-3.5.6-bin)https://archive.apache.org/dist/zookeeper/zook ...

  2. 【Apache Kafka】二、Kafka安装及简单示例

    (一)Apache Kafka安装 1.安装环境与前提条件   安装环境:Ubuntu16.04   前提条件: ubuntu系统下安装好jdk 1.8以上版本,正确配置环境变量 ubuntu系统下安 ...

  3. kafka集群安装及简单使用

    关于kafka是什么及原理,请参考kafka官方文档的介绍:http://kafka.apache.org/documentation/#introduction ,英文不好的同学可以看这里http: ...

  4. kafka可视化工具安装及简单使用

    一.安装 双击kafkatool_64bit.exe安装kafka可视化工具,并且C:\Windows\System32\drivers\etc配置HOSTS,打开HOSTS并添加: HOSTS添加: ...

  5. kafka安装与使用

    一.下载 下载地址: http://kafka.apache.org/downloads.html kafka目录结构 目录 说明 bin 操作kafka的可执行脚本,还包含windows下脚本 co ...

  6. Spark简介安装和简单例子

    Spark简介安装和简单例子 Spark简介 Spark是一种快速.通用.可扩展的大数据分析引擎,目前,Spark生态系统已经发展成为一个包含多个子项目的集合,其中包含SparkSQL.Spark S ...

  7. kafka安装和使用

    kafka安装和启动 kafka的背景知识已经讲了很多了,让我们现在开始实践吧,假设你现在没有Kafka和ZooKeeper环境. Step 1: 下载代码 下载0.10.0.0版本并且解压它. &g ...

  8. Kafka安装教程(详细过程)

    安装前期准备: 1,准备三个节点(根据自己需求决定) 2,三个节点上安装好zookeeper(也可以使用kafka自带的zookeeper) 3,关闭防火墙 chkconfig  iptables o ...

  9. Zookeeper 安装与简单使用

    一.安装Zookeeper 其实Zookeeper的安装特别简单,也不能算安装了,只需要将Zookeeper下载后解压,就完成了安装操作. 下载地址:http://zookeeper.apache.o ...

随机推荐

  1. 第一周Access课总结

    一.问:这节课学到了什么知识? 答:这周课程迎来新的学习领域,作为初次学Access有了一定的了解,Access是office办公软件中的一个极为重要的组成部分,它可以对大量的数据进行存储,查找,统计 ...

  2. PMP:2.项目运行环境

    事业环境因素(EEF):事业环境因素源于项目外部(往往是企业外部)的环境,是指项目团队不能控制的,将对项目产生影响.限制或指令作用的各种条件. 组织内部的事业环境因素: {     uu组织文化.结构 ...

  3. SQL Server使用证书最小粒度授权

    最近在项目中某个功能遇到了阻塞造成的Time out错误.所以需要在执行该功能的时候开启一个线程检测SQL Server中阻塞会话.但是程序本身使用的sql帐号本身不具备VIEW Sever Stat ...

  4. Dynamic Programming | Set 2 (Optimal Substructure Property)

    正如我们在 Dynamic Programming | Set 1 (Overlapping Subproblems Property) 中讨论的那样,当一个问题具有以下2种性质时,建议使用动态规划来 ...

  5. 788. Rotated Digits

    X is a good number if after rotating each digit individually by 180 degrees, we get a valid number t ...

  6. Javascript高级编程学习笔记(12)—— 引用类型(1)Object类型

    前面的文章中我们知道JS中的值分为两种类型 基础类型的值和引用类型的值 基础类型的值我已经大概介绍了一下,今天开始后面几天我会为大家介绍一下引用类型的值 Object类型 对象是引用类型的值的实例,在 ...

  7. 走你!Github 开源整合

    加入知识星球,最好的分享交流平台哦~ <我的知识星球,最好的分享交流平台>,一年的服务平台,对于一个成年人来说,就是小费了(更多详情,请点击文章了解)~ 走你!Github 开源整合 1. ...

  8. 鱼眼投影方式(Fisheye projection)的软件实现

    简单实现 鱼眼模式(Fisheye)和普通的透视投影(Perspective projection),一个很大的区别就是鱼眼的投影算法是非线性的(non-linear),实际照相机的情况是在镜头外面包 ...

  9. U-boot中SPL功能和源码流程分析

    在U-boot目录下,有个比较重要的目录就是SPL的,SPL到底是什么呢?为什么要用它呢? SPL(Secondary programloader)是uboot第一阶段执行的代码.主要负责搬移uboo ...

  10. Go标准库之读写文件(File)

    Go标准库之读写文件(File) 创建一个空文件 package main import ( "log" "os" ) func main() { file, ...