这篇博文讲解Kafka 的生产者和消费者实例。

基础版本一

生产者

ProducerFastStart.java
package com.xingyun.tutorial_1;

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord; import java.util.Properties; public class ProducerFastStart { public static final String brokerList="192.168.10.137:9092"; // public static final String topic="topic-demo";
public static final String topic="ODS-PSR-P.*"; public static void main(String args[]){ //配置生产者客户端参数
//将配置序列化
Properties properties=new Properties();
properties.put("key.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put("value.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put("bootstrap.servers",brokerList); //创建KafkaProducer 实例
KafkaProducer<String,String> producer=new KafkaProducer<String, String>(properties); //构建待发送的消息
ProducerRecord<String,String> record=new ProducerRecord<String, String>(topic,"hello Kafka!");
try {
//尝试发送消息
producer.send(record);
//打印发送成功
System.out.println("send success from producer");
} catch (Exception e) {
e.printStackTrace();
}finally {
//关闭生产者客户端实例
producer.close();
}
}
}
消费者
ConsumerFastStart.java
package com.xingyun.tutorial_1;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer; import java.time.Duration;
import java.util.Collections;
import java.util.Properties; public class ConsumerFastStart { // public static final String brokerList="192.168.10.137:9092";
public static final String brokerList="10.221.148.217:9092 ,10.221.148.217:9093 ,10.221.148.217:9094"; // public static final String topic="topic-demo";
public static final String topic="ODS-PSR-P.*"; public static final String groupId="group.demo"; public static void main(String args[]){ //设置消费组的名称
//将属性值反序列化
Properties properties=new Properties();
properties.put("key.deserializer","org.apache.kafka.common.serialization.StringDeserializer");
properties.put("value.deserializer","org.apache.kafka.common.serialization.StringDeserializer");
properties.put("bootstrap.servers",brokerList);
properties.put("group.id",groupId); //创建一个消费者客户端实例
KafkaConsumer<String,String> consumer=new KafkaConsumer<>(properties); //订阅主题
consumer.subscribe(Collections.singletonList(topic)); //循环消费消息
while (true){
ConsumerRecords<String,String> records=consumer.poll(Duration.ofMillis(1000));
for (ConsumerRecord<String,String> record:records){
System.out.println("receiver a message from consumer client:"+record.value());
}
}
}
}

升级版本一:
生产者

KafkaProducerAnalysis.java
package com.xingyun.tutorial_2;

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.serialization.StringSerializer; import java.util.Properties; public class KafkaProducerAnalysis { public static final String brokerList="192.168.10.137:9092"; public static final String topic="topic-demo"; public static void main(String args[]){ //配置生产者客户端参数
Properties properties=initConfig(); //创建相应的生产者实例
KafkaProducer<String,String> producer=new KafkaProducer<>(properties); //构建待发送的消息 topic 和value 是必填项
ProducerRecord<String,String> record=new ProducerRecord<>(topic,"hello,Kafka!"); try {
//发送消息
producer.send(record);
} catch (Exception e) {
e.printStackTrace();
}finally {
//关闭生产者实例
producer.close();
} } /**
* 配置生产者客户端参数
* */
private static Properties initConfig() {
Properties properties=new Properties();
// properties.put("bootstrap.servers",brokerList);
properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,brokerList);
// properties.put("key.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
//properties.put("value.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
//properties.put("client.id","producer.client.id.demo");//指定客户端ID
properties.put(ProducerConfig.CLIENT_ID_CONFIG,"producer.client.id.demo");//指定客户端ID
return properties;
} }
消费者
KafkaConsumerAnalysis.java
package com.xingyun.tutorial_2;

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.serialization.Deserializer; import java.time.Duration;
import java.util.Arrays;
import java.util.Properties;
import java.util.concurrent.atomic.AtomicBoolean; public class KafkaConsumerAnalysis { public static final String brokerList="";
public static final String topic="topic-demo";
public static final String groupId="group.demo"; public static final AtomicBoolean isRunning=new AtomicBoolean(true); public static void main(String[] args){ //配置消费者客户端参数
Properties properties=initConfig(); //创建相应的消费者实例
KafkaConsumer<String,String> consumer=new KafkaConsumer<>(properties); //订阅主题
consumer.subscribe(Arrays.asList(topic)); try {
//拉取消息并消费
while(isRunning.get()){ ConsumerRecords<String,String> records=consumer.poll(Duration.ofMillis(1000)); for (ConsumerRecord<String,String> record:records){ System.out.println("topic="+record.topic()+",partition="+record.partition()+",offset="+record.offset());
System.out.println("key="+record.key()+",value="+record.value());
//do something to processor record.
}
}
} catch (Exception e) {
e.printStackTrace();
}finally {
consumer.close();
}
} /**
* 配置消费者客户端参数
* */
private static Properties initConfig() {
Properties properties=new Properties(); // properties.put("key.deserializer","org.apache.kafka.common.serialization.Deserializer");
properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, Deserializer.class.getName()); // properties.put("value.deserializer","org.apache.kafka.common.serialization.Deserializer");
properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,Deserializer.class.getName()); //指定连接Kafka集群所需的broker地址清单,中间用逗号隔开,默认值为""
// properties.put("bootstrap.server",brokerList);
properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,brokerList); //消费者所属的消费组的名称,默认值为""
// properties.put("group.id",groupId);
properties.put(ConsumerConfig.GROUP_ID_CONFIG,groupId); // properties.put("client.id","consumer.client.id.demo");
//指定消费者客户端Id,如果不设置,则自动生成consumer-1,consumer-2
properties.put(ConsumerConfig.CLIENT_ID_CONFIG,"consumer.client.id.demo"); return properties;
}
}

Kafka 生产者和消费者入门代码基础的更多相关文章

  1. kafka生产者和消费者api的简单使用

    kafka生产者和消费者api的简单使用 一.背景 二.需要实现的功能 1.生产者实现功能 1.KafkaProducer线程安全的,可以在多线程中使用. 2.消息发送的key和value的序列化 3 ...

  2. [Spark][kafka]kafka 生产者,消费者 互动例子

    [Spark][kafka]kafka 生产者,消费者 互动例子 # pwd/usr/local/kafka_2.11-0.10.0.1/bin 创建topic:# ./kafka-topics.sh ...

  3. kafka生产者和消费者流程

    前言 根据源码分析kafka java客户端的生产者和消费者的流程. 基于zookeeper的旧消费者 kafka消费者从消费数据到关闭经历的流程. 由于3个核心线程 基于zookeeper的连接器监 ...

  4. kafka-python开发kafka生产者和消费者

    1.安装kafka-python 执行命令 pip install kafka-python kafka-python        1.4.6 2.编写python kafka 生产者消费者代码 # ...

  5. kafka学习(三)kafka生产者,消费者详解

    文章更新时间:2020/06/14 一.生产者 当我们发送消息之前,先问几个问题:每条消息都是很关键且不能容忍丢失么?偶尔重复消息可以么?我们关注的是消息延迟还是写入消息的吞吐量? 举个例子,有一个信 ...

  6. Kafka 生产者、消费者与分区的关系

    背景 最近和海康整数据对接, 需要将海康产生的结构化数据拿过来做二次识别. 基本的流程: 海康大数据 --> kafka server --> 平台 Kafka 的 topic 正常过车 ...

  7. kafka生产者和消费者

    在使用kafka时,有时候为验证应用程序,需要手动读取消息或者手动生成消息.这个时候可以借助kafka-console-consumer.sh和kafka-console-producer.sh 这两 ...

  8. springboot配置kafka生产者和消费者详解

    在原有pom.xml依赖下新添加一下kafka依赖ar包 <!--kafka--> <dependency> <groupId>org.springframewor ...

  9. kafka生产者、消费者java示例

    1. 生产者 import java.util.Properties; import kafka.javaapi.producer.Producer; import kafka.producer.Ke ...

随机推荐

  1. Android 一个Activity 里面放置多个 Fragment 实现点击切换的Tab 页面效果

    // BaseActivity 是实现的一些公共的变量和方法,可以暂时为空的类 public class HomeActivity extends BaseActivity implements Vi ...

  2. JAG Practice Contest for ACM-ICPC Asia Regional 2016.K.Non-redundant Drive(点分治)

    Atcoder vjudge 这标题好长... \(Description\) 给定一棵\(n\)个点的树.在每个点\(i\)你可以补充\(g_i\)的油量,经过一条边需要花费边长的油量.你可以选择从 ...

  3. BZOJ.5287.[AHOI HNOI2018]毒瘤(虚树 树形DP)

    BZOJ LOJ 洛谷 设\(f[i][0/1]\)表示到第\(i\)个点,不选/选这个点的方案数.对于一棵树,有:\[f[x][0]=\prod_{v\in son[x]}(f[v][0]+f[v] ...

  4. Shell脚本笔记(一)一些零碎的基础知识

    一些零碎的基础知识 一.认识Shell脚本 一)相关概念 Shell是一种命令解释器,作用是按次序执行(遇到子脚本,先执行子脚本的命令)用户输入的命令和程序. Shell脚本语言是弱类型语言,与其他脚 ...

  5. javaScript中with函数用法实例分析

    javaScript 中的 with 函数 ,即所谓的with 语句,可以方便地用来引用某个特定对象中已有的属性,但是不能用来给对象添加属性,要给对象创建新的属性,必须明确地引用该对象. with 函 ...

  6. [CF49E]Common ancestor

    [CF49E]Common ancestor 题目大意: 有两个由小写字母构成的字符串\(S\)和\(T(|S|,|T|\le50)\).另有\(n(n\le50)\)个形如\(a\to bc\)的信 ...

  7. [NOIp2018提高组]赛道修建

    [NOIp2018提高组]赛道修建 题目大意: 给你一棵\(n(n\le5\times10^4)\)个结点的树,从中找出\(m\)个没有公共边的路径,使得第\(m\)长的路径最长.问第\(m\)长的路 ...

  8. HTTP 500 Invalid bound statement错误

    整合SSM框架的时候出现的错误,根据提示信息,找不到 dao.IUserDao.insertUser 方法,可能是mybatis的配置文件出现了问题. 在网上查了一些解决办法,说的最多的是mapper ...

  9. BZOJ4910 : [Sdoi2017] 苹果树

    问题等价于树形依赖背包,允许一条链每个点各免费一次. 设$f[i][j]$表示按DFS序考虑到$i$,体积为$j$的最大收益. 先放入不能免费的物品,等遍历完儿子后再放入必选的物品,那么$i$到根路径 ...

  10. python对象转化为json串、json串转化为python串

    1.1. JSON简介: JavaScript Object Notation(JavaScript对象表示法) JSON是存储和交换文本信息的语法.类似XML JSON比XML更小.更快.更易解析 ...