ps:抱歉我在做着原来的文章上做了一点改动

系统:centos7

下载kafka:http://kafka.apache.org/downloads ,我下载的版本为 kafka_2.11-0.10.1.0.tgz 。

安装ZooKeeper,默认已经安装好 zookeeper-3.4.9 并已经启动。

第1步,下载解压 kafka:

# tar -xzf kafka_2.11-0.10.1.0.tgz
# cd kafka_2.11-0.10.1.0

修改配置文件config/server.properties

//单节点,这里就配置1
broker.id = 1
port = 9092
//10.0.1.222本机ip
listeners=PLAINTEXT://10.0.1.222:9092
log.dirs=/root/software/kafka/log
//kafka有自己的zooleeper工具,我没有用,在本机安装了一个zookeeper,需要配置下面
zookeeper.connect=10.0.1.222:2181

第2步,运行 kafka:

kafka的运行是需要ZooKeeper支持的,所以要先启动一个ZooKeeper,但是如果实在不想安装,只是为了小实验,那么kafka也提供了一个便捷的小脚本模拟ZooKeeper运行:

> bin/zookeeper-server-start.sh config/zookeeper.properties

这里我有自己单独的ZooKeeper。

  root      59741      1 47 17:17 pts/2    00:00:06 /usr/local/java/jdk1.8.0_131/bin/java -Dzookeeper.log.dir=. -Dzookeeper.root.logger=INFO,CONSOLE -cp /usr/local/zookeeper-3.4.9/bin/../build/classes:/usr/local/zookeeper-3.4.9/bin/../build/lib/*.jar:/usr/local/zookeeper-3.4.9/bin/../lib/slf4j-log4j12-1.6.1.jar:/usr/local/zookeeper-3.4.9/bin/../lib/slf4j-api-1.6.1.jar:/usr/local/zookeeper-3.4.9/bin/../lib/netty-3.10.5.Final.jar:/usr/local/zookeeper-3.4.9/bin/../lib/log4j-1.2.16.jar:/usr/local/zookeeper-3.4.9/bin/../lib/jline-0.9.94.jar:/usr/local/zookeeper-3.4.9/bin/../zookeeper-3.4.9.jar:/usr/local/zookeeper-3.4.9/bin/../src/java/lib/*.jar:/usr/local/zookeeper-3.4.9/bin/../conf:.:/usr/local/java/jdk1.8.0_131/lib/dt.jar:/usr/local/java/jdk1.8.0_131/lib/tools.jar -Dcom.sun.management.jmxremote -Dcom.sun.management.jmxremote.local.only=false org.apache.zookeeper.server.quorum.QuorumPeerMain /usr/local/zookeeper-3.4.9/bin/../conf/zoo.cfg

那么现在使用默认配置文件启动 kafka 的服务:

# /usr/local/kafka_2.11-0.10.1.0/bin/kafka-server-start.sh /usr/local/kafka_2.11-0.10.1.0/config/server.properties

后台启动

# /usr/local/kafka_2.11-0.10.1.0/bin/kafka-server-start.sh  -daemon /usr/local/kafka_2.11-0.10.1.0/config/server.properties

查看kafka是否启动

jps

然后会出现一堆默认的配置。。。最后一行再来个 INFO [Kafka Server 0], started (kafka.server.KafkaServer),就完成了。

第3步,创建topic

进入kafka根目录,创建一个单分区单分片名为“test”的topic。

 #  bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
    Created topic "test".

然后执行topic的list命令时候,就会列出所有的topic:

# bin/kafka-topics.sh --list --zookeeper localhost:2181
    test

或者,也可以配置broker的server.property中的auto.create.topics.enable = true,当不存在的主题被发布时,会自动创建该主题。默认是 true。

第4步,生产者发送消息

kafka 附带一个命令行客户端,它将从文件或标准输入中获取输入信息,并将其作为消息发送到 kafka 集群。默认情况下,每一行将作为一个单独的消息发送。

运行生产者程序并发送消息:

# bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
    helo^[[D^H2018
    hello2018

第5步,消费者接收消息

# bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning
    he2018
    hello2018

使用 java 客户端

在使用非本机连接的时候,最好先在 config/server.properties 里面把 listeners 修改一下,否则容易连接失败。

listeners=PLAINTEXT://10.10.22.0:9092

引入jar包

<dependency>
                <groupId>org.apache.kafka</groupId>
                <artifactId>kafka_2.12</artifactId>
                <version>1.0.0</version>
</dependency>

生产者代码,每秒发送一条数据,topic 不存在会自动创建:

 import org.apache.kafka.clients.producer.*;

    import java.util.Properties;

    public class KafkaProducerDemo {
        private  final Producer<String,String> kafkaProducer;

        public final static String TOPIC="test";

        private KafkaProducerDemo(){
            kafkaProducer=createKafkaProducer() ;
        }
        private Producer<String,String> createKafkaProducer(){
            Properties props = new Properties();
            //配置kafka的ip port
            props.put("bootstrap.servers", "10.0.1.222:9092");
            props.put("acks", "all");
            props.put("retries", 0);
            props.put("batch.size", 16384);
            props.put("linger.ms", 1);
            props.put("buffer.memory", 33554432);
            props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
            props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

            Producer<String, String> kafkaProducer = new KafkaProducer<>(props);
            return kafkaProducer;
        }

        void produce(){
            for(int i=1;i<1000;i++){
                try {
                    Thread.sleep(1000);
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
                String key=String.valueOf("key"+i);
                String data="hello kafka message:"+key;
                kafkaProducer.send(new ProducerRecord<>(TOPIC, key, data), new Callback() {
                    @Override
                    public void onCompletion(RecordMetadata recordMetadata, Exception e) {
                        //do sth
                    }
                });
                System.out.println(data);
            }
        }

        public  static  void main(String[] args){
            new KafkaProducerDemo().produce();
        }
    }

消费者类代码:

 import kafka.consumer.ConsumerConfig;
    import kafka.consumer.ConsumerIterator;
    import kafka.consumer.KafkaStream;
    import kafka.javaapi.consumer.ConsumerConnector;
    import kafka.serializer.StringDecoder;
    import kafka.utils.VerifiableProperties;
    import org.apache.kafka.clients.consumer.ConsumerRecord;
    import org.apache.kafka.clients.consumer.ConsumerRecords;
    import org.apache.kafka.clients.consumer.KafkaConsumer;

    import java.util.*;

    public class KafkaConsumerDemo {
        private  final KafkaConsumer<String, String> consumer;

        private KafkaConsumerDemo(){
            Properties props = new Properties();
            //配置kafka的ip port
            props.put("bootstrap.servers", "10.0.1.222:9092");
            //groupid在kafka根目录下config/consumer.properties中
            props.put("group.id", "test");
            props.put("enable.auto.commit", "true");
            props.put("auto.commit.interval.ms", "1000");
            props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
            props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
            consumer = new KafkaConsumer<>(props);
        }

        void consume(){
            consumer.subscribe(Arrays.asList(“test”));
            while (true) {
                ConsumerRecords<String, String> records = consumer.poll(100);
                for (ConsumerRecord<String, String> record : records)
                    System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
            }
        }

        public  static  void main(String[] args){
            new KafkaConsumerDemo().consume();
        }
    }

原文:https://blog.csdn.net/hohoo1990/article/details/78973896

kafka 0.8.0版本demo

http://outofmemory.cn/code-snippet/33051/java-kafka-producer-consumer-example

kafka 简单安装以及java小demo的更多相关文章

  1. solr环境搭建及java小demo

    一配置solr环境 1.下载solr 2.配置solr(最好单独分离出一个tomcat,一台机器启动多个tomcat参见:http://www.cnblogs.com/lxlwellaccessful ...

  2. 聊聊UDP、TCP和实现一个简单的JAVA UDP小Demo

    最近真的比较忙,很久就想写了,可是一直苦于写点什么,今天脑袋灵光一闪,觉得自己再UDP方面还有些不了解的地方,所以要给自己扫盲. 好了,咱们进入今天的主题,先列一下提纲: 1. UDP是什么,UDP适 ...

  3. 【Java】Jsoup爬虫,一个简单获取京东商品信息的小Demo

    简单记录 - Jsoup爬虫入门实战 数据问题?数据库获取,消息队列中获取中,都可以成为数据源,爬虫! 爬取数据:(获取请求返回的页面信息,筛选出我们想要的数据就可以了!) 我们经常需要分析HTML网 ...

  4. spark集群配置以及java操作spark小demo

    spark 安装 配置 使用java来操作spark spark 安装 tar -zxvf spark-2.4.0-bin-hadoop2.7.tgz rm spark-2.4.0-bin-hadoo ...

  5. java线程间通信:一个小Demo完全搞懂

    版权声明:本文出自汪磊的博客,转载请务必注明出处. Java线程系列文章只是自己知识的总结梳理,都是最基础的玩意,已经掌握熟练的可以绕过. 一.从一个小Demo说起 上篇我们聊到了Java多线程的同步 ...

  6. Kafka入门 --安装和简单实用

    一.安装Zookeeper 参考: Zookeeper的下载.安装和启动 Zookeeper 集群搭建--单机伪分布式集群 二.下载Kafka 进入http://kafka.apache.org/do ...

  7. java Kafka 简单应用实例

    kafka官方中文文档  http://kafka.apachecn.org/ java Kafka 简单应用实例  下面是Linux下的单机模式:https://blog.csdn.net/fct2 ...

  8. 输出多行字符的一个简单JAVA小程序

    public class JAVA { public static void main(String[] args) { System.out.println("-------------- ...

  9. Kafka 简单实验一(安装Kafka)

    Apache Kafka - 安装步骤 步骤1 - Java安装 希望您现在已经在您的计算机上安装了Java,因此您只需使用以下命令进行验证. $ java -version 如果您的计算机上成功安装 ...

随机推荐

  1. oo_project_2java数据类型范围及测试

    数据类型范围测试 一.数字常数的编译问题 java中的常量数字默认以int型编译 如: long a = 1234567890; //十位 long b = 12345678900; //默认数据为i ...

  2. dubbo远程服务调用和maven依赖的区别

    dubbo:跨系统通信.比如:两个系统,一个系统A作客户端,一个系统B作服务器, 服务器B把自己的接口定义提供给客户端A,客户端A将接口定义在spring中的bean.客户端A可直接使用这个bean, ...

  3. jQuery设置checkbox 为选中状态

    1设置第一个checkbox 为选中值$('input:checkbox:first').attr("checked",'checked');或者$('input:checkbox ...

  4. hdfs 创建一个新用户

    需要给第三方提供hdfs用户,和上传文件的权限 1.需要先在linux 上创建一个普通用户: hn,并修改密码 sudo -u hdfs hadoop fs -mkdir /user/用户名 sudo ...

  5. IE兼容模式下样式分离错乱,求CSS高手

    IE正常模式下访问正常 兼容模式右边图片切换区域样式错乱,求CSS高手! 详细参考网址:www.javams.com

  6. vscode 常用命令行

    Ctrl+Shift+P:  打开命令面板 打开一个新窗口: Ctrl+Shift+N  关闭窗口: Ctrl+Shift+W 新建文件 Ctrl+N 代码行缩进 Ctrl+[ . Ctrl+] 上下 ...

  7. Pycharm 激活码2017最新

    BIG3CLIK6F-eyJsaWNlbnNlSWQiOiJCSUczQ0xJSzZGIiwibGljZW5zZWVOYW1lIjoibGFuIHl1IiwiYXNzaWduZWVOYW1lIjoiI ...

  8. element checkbox 勾选时出现弹框提示。

    复选框选中的时候,必须提示是否确定选中,取消勾选的时候也要. 不能解决的思路: 1.element的checkbox只有一个change事件,该事件只返回该选项最新的值(true,false)(不会返 ...

  9. Vue小白篇 - ES6的语法

    为什么要学 ES6 的语法呢? 因为 Vue 语法有很多都是 ES6(ECMAScript 6),这里推荐 [阮一峰 ECMAScript 6 入门]: http://es6.ruanyifeng.c ...

  10. .Net编译环境x86,x64,anycpu的区别

    一.定义 x86: 将程序集编译为由兼容 x86 的 32 位公共语言运行库运行. x64: 将程序集编译为由支持 AMD64 或 EM64T 指令集的计算机上的 64 位公共语言运行库运行. any ...