一、kafka安装
  安装是非常简单的,现在推荐安装0.8的版本,这个版本是非常稳定的,而且公司里面也多用此版本。
  简单的安装:
  这个是我使用的版本,kafka_2.11-0.8.2.2.tgz
  直接tar -zxvf kafka_2.11-0.8.2.2.tgz -C /soft/apps/kafka
  ok
  解压后进入,安装的目录。
  找到config目录
  
  修改里面的server.properties文件
  

  文件的详细属性为:

#broker的全局唯一编号,不能重复
broker.id= #用来监听链接的端口,producer或consumer将在此端口建立连接
port= #处理网络请求的线程数量
num.network.threads= #用来处理磁盘IO的线程数量
num.io.threads= #发送套接字的缓冲区大小
socket.send.buffer.bytes= #接受套接字的缓冲区大小
socket.receive.buffer.bytes= #请求套接字的缓冲区大小
socket.request.max.bytes= #kafka消息存放的路径
log.dirs=/export/servers/logs/kafka #topic在当前broker上的分片个数
num.partitions= #用来恢复和清理data下数据的线程数量
num.recovery.threads.per.data.dir= #segment文件保留的最长时间,超时将被删除
log.retention.hours= #滚动生成新的segment文件的最大时间
log.roll.hours= #日志文件中每个segment的大小,默认为1G
log.segment.bytes= #周期性检查文件大小的时间
log.retention.check.interval.ms= #日志清理是否打开
log.cleaner.enable=true #broker需要使用zookeeper保存meta数据
zookeeper.connect=192.168.52.106:,192.168.52.107:,192.168.52.108: #zookeeper链接超时时间
zookeeper.connection.timeout.ms= #partion buffer中,消息的条数达到阈值,将触发flush到磁盘
log.flush.interval.messages= #消息buffer的时间,达到阈值,将触发flush到磁盘
log.flush.interval.ms= #删除topic需要server.properties中设置delete.topic.enable=true否则只是标记删除
delete.topic.enable=true #此处的host.name为本机IP(重要),如果不改,则客户端会抛出:Producer connection to localhost: unsuccessful 错误!
host.name=spark101

ok,根据上面的配置修改自己的配置i文件,切记broker.id属性,全局唯一

然后分发文件,分发后修改broker.id和host.name属性

二、简单的使用

  注意:kafka的使用,需要zookeeper的支持,请切记在启动kafka之前,zookeeper集群已启动完毕。

  首先,启动kafka,启动成功后会jps查看会有一个kafka进程,若是启动失败,请仔细检查配置文件。

./bin/kafka-server-start.sh -daemon config/server.properties

  创建topic

./bin/kafka-topics.sh --create --zookeeper spark101:,spark102:,spark103: --partition  --replication-factor  --topic test01

  查看topic

./bin/kafka-topics.sh --list --zookeeper spark101:2181,spark102:2181,spark103:2181

  查看详情

./bin/kafka-topics.sh --describe --zookeeper spark101:,spark102:,spark103: --topic test01

  删除(若是配置文件中delete.topic.enable属性为true会直接删除,若是没有配置默认只是标记,并未真正删除)

./bin/kafka-topics.sh --delete --zookeeper spark101:,spark102:,spark103: --topic test01

  说明:若是没有true,同时又想删除干净的话,逐步删除一下文件

1、删除配置真实数据目录下的数据文件
2、然后删除zookeeper下面的信息
  rmr /admin/delete_topics/topicname
  rmr /config/topics/topicname
  rmr /brokers/topics/topicname

  三、API的使用,消费者和生产者之间的简单通信

  生产者:(spark101节点)

./bin/kafka-console-producer.sh --broker-list spark101:,spark102:,spark103: --topic test03

  消费者:

.bin/kafka-console-consumer.sh --zookeeper spark101:,spark102:,spark103: --topic test03 --from-beginning

  然后在生产者中输入数据,会在消费者那里接收到

kafka安装与简单使用的更多相关文章

  1. kafka安装和简单测试

    kafka安装和简单测试 # 安装zookeeper(apache-zookeeper-3.5.6-bin)https://archive.apache.org/dist/zookeeper/zook ...

  2. 【Apache Kafka】二、Kafka安装及简单示例

    (一)Apache Kafka安装 1.安装环境与前提条件   安装环境:Ubuntu16.04   前提条件: ubuntu系统下安装好jdk 1.8以上版本,正确配置环境变量 ubuntu系统下安 ...

  3. kafka集群安装及简单使用

    关于kafka是什么及原理,请参考kafka官方文档的介绍:http://kafka.apache.org/documentation/#introduction ,英文不好的同学可以看这里http: ...

  4. kafka可视化工具安装及简单使用

    一.安装 双击kafkatool_64bit.exe安装kafka可视化工具,并且C:\Windows\System32\drivers\etc配置HOSTS,打开HOSTS并添加: HOSTS添加: ...

  5. kafka安装与使用

    一.下载 下载地址: http://kafka.apache.org/downloads.html kafka目录结构 目录 说明 bin 操作kafka的可执行脚本,还包含windows下脚本 co ...

  6. Spark简介安装和简单例子

    Spark简介安装和简单例子 Spark简介 Spark是一种快速.通用.可扩展的大数据分析引擎,目前,Spark生态系统已经发展成为一个包含多个子项目的集合,其中包含SparkSQL.Spark S ...

  7. kafka安装和使用

    kafka安装和启动 kafka的背景知识已经讲了很多了,让我们现在开始实践吧,假设你现在没有Kafka和ZooKeeper环境. Step 1: 下载代码 下载0.10.0.0版本并且解压它. &g ...

  8. Kafka安装教程(详细过程)

    安装前期准备: 1,准备三个节点(根据自己需求决定) 2,三个节点上安装好zookeeper(也可以使用kafka自带的zookeeper) 3,关闭防火墙 chkconfig  iptables o ...

  9. Zookeeper 安装与简单使用

    一.安装Zookeeper 其实Zookeeper的安装特别简单,也不能算安装了,只需要将Zookeeper下载后解压,就完成了安装操作. 下载地址:http://zookeeper.apache.o ...

随机推荐

  1. EF6 学习笔记(三):排序、过滤查询及分页

    EF6 学习笔记索引目录页: ASP.NET MVC5 及 EF6 学习笔记 - (目录整理) 上篇:EF6 学习笔记(二):操练 CRUD 增删改查 本篇原文地址:Sorting, Filterin ...

  2. js-运动函数(盒子运动)

    注意move的js包在另一篇文章 <!DOCTYPE html><html> <head> <meta charset="UTF-8"&g ...

  3. AFNetworking 3.0中调用[AFHTTPSessionManager manager]方法导致内存泄漏的解决办法

    在使用AFNetworking3.0框架,使用Instruments检查Leaks时,检测到1000多个内存泄漏的地方,定位到 [AFHTTPSessionManager manager] 语句中,几 ...

  4. ZZ:git只clone仓库中指定子目录和指定文件的实现

    原文链接: http://blog.csdn.net/xuyaqun/article/details/49275477 git目前唯一不能实现的是:不能像svn那样,针对子目录设置权限,这与git分布 ...

  5. so静态分析进阶练习——一个CreakeMe的分析思路

    i春秋作家:HAI_ 原文来自:https://bbs.ichunqiu.com/thread-41371-1-1.html 说明 拿到一个CreakeMe,写一个分析思路.CreakMe主要是对.s ...

  6. java 手动实现远程执行功能(深入理解java虚拟机)

     1.功能类 功能类共有五,分别是: package org.jvm; import java.io.*; /** * 对字节数组操作的工具类 */ public class ByteUtils { ...

  7. [Swift]扩展UIImage :获取图片指定像素的颜色值

    对[UIImage]进行扩展 import UIKit extension UIImage{ /** 根据坐标获取图片中的像素颜色值 */ subscript (x: Int, y: Int) -&g ...

  8. Testing - 软件测试知识梳理 - 软件性能测试

    软件性能测试的基本概念 软件的性能是软件的一种非功能特性,它关注的不是软件是否能够完成特定的功能,而是软件在完成该功能时展示出来的及时性. 软件性能的指标 响应时间:是指系统对请求作出响应的时间,并且 ...

  9. mysql快熟入门

    前提:假设我们的电脑或服务器已经正确安装了mysql服务器 一:连接和断开mysql服务器 1.1连接数据库服务器 shell> mysql -u user -p (user用户名通常为root ...

  10. 【译】使用 ndb 调试 node 应用

    原文链接:Debugging Node.js Application Using ndb Google Chrome 实验室发布了一款新的 node debug 工具来提升开发者体验,本文将会全面介绍 ...