本文代码使用的是Spring Boot 2.1.8.RELEASE 版本

  1. <parent>
  2. <groupId>org.springframework.boot</groupId>
  3. <artifactId>spring-boot-starter-parent</artifactId>
  4. <version>2.1.8.RELEASE</version>
  5. <!--
  6. parent.relativePath用法:设定一个空值将始终从仓库中获取,不从本地路径获取
  7. 查找顺序:relativePath元素中的地址 –> 本地仓库 –> 远程仓库
  8. -->
  9. <relativePath /> <!-- lookup parent from repository -->
  10. </parent>

1、 pom.xml文件,引入依赖

  1. <!-- kafka依赖 begin -->
  2. <dependency>
  3. <groupId>org.springframework.kafka</groupId>
  4. <artifactId>spring-kafka</artifactId>
  5. </dependency>
  6. <dependency>
  7. <groupId>org.springframework.kafka</groupId>
  8. <artifactId>spring-kafka-test</artifactId>
  9. <scope>test</scope>
  10. </dependency>
  11. <!-- kafka依赖 end -->

采用Kafka提供的StringSerializer和StringDeserializer进行序列化和反序列化

2、在application-dev.properties配置生产者

  1. #### kafka配置生产者 begin ####
  2. #============== kafka ===================
  3. # 指定kafka server的地址,集群配多个,中间,逗号隔开
  4. spring.kafka.bootstrap-servers=106.12.241.89:9092
  5.  
  6. #=============== provider =======================
  7. # 写入失败时,重试次数。当leader节点失效,一个repli节点会替代成为leader节点,此时可能出现写入失败,
  8. # 当retris为0时,produce不会重复。retirs重发,此时repli节点完全成为leader节点,不会产生消息丢失。
  9. spring.kafka.producer.retries=0
  10. # 每次批量发送消息的数量,produce积累到一定数据,一次发送
  11. spring.kafka.producer.batch-size=16384
  12. # produce积累数据一次发送,缓存大小达到buffer.memory就发送数据
  13. spring.kafka.producer.buffer-memory=33554432
  14.  
  15. #procedure要求leader在考虑完成请求之前收到的确认数,用于控制发送记录在服务端的持久化,其值可以为如下:
  16. #acks = 0 如果设置为零,则生产者将不会等待来自服务器的任何确认,该记录将立即添加到套接字缓冲区并视为已发送。在这种情况下,无法保证服务器已收到记录,并且重试配置将不会生效(因为客户端通常不会知道任何故障),为每条记录返回的偏移量始终设置为-1。
  17. #acks = 1 这意味着leader会将记录写入其本地日志,但无需等待所有副本服务器的完全确认即可做出回应,在这种情况下,如果leader在确认记录后立即失败,但在将数据复制到所有的副本服务器之前,则记录将会丢失。
  18. #acks = all 这意味着leader将等待完整的同步副本集以确认记录,这保证了只要至少一个同步副本服务器仍然存活,记录就不会丢失,这是最强有力的保证,这相当于acks = -1的设置。
  19. #可以设置的值为:all, -1, 0, 1
  20. spring.kafka.producer.acks=1
  21.  
  22. # 指定消息key和消息体的编解码方式
  23. spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
  24. spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
  25.  
  26. #### kafka配置生产者 end ####

3、生产者向kafka发送消息

  1. import org.springframework.beans.factory.annotation.Autowired;
  2. import org.springframework.kafka.core.KafkaTemplate;
  3. import org.springframework.stereotype.Controller;
  4. import org.springframework.web.bind.annotation.GetMapping;
  5. import org.springframework.web.bind.annotation.RequestMapping;
  6. import org.springframework.web.bind.annotation.RequestParam;
  7. import org.springframework.web.bind.annotation.ResponseBody;
  8.  
  9. /**
  10. *
  11. *
  12. * @author Lynch
  13. */
  14. @Controller
  15. @RequestMapping("/api/kafka/")
  16. public class KafkaController {
  17. @Autowired
  18. private KafkaTemplate<String,Object> kafkaTemplate;
  19.  
  20. @GetMapping("send")
  21. @ResponseBody
  22. public boolean send(@RequestParam String message) {
  23. try {
  24. kafkaTemplate.send("testTopic", message);
  25. System.out.println("消息发送成功...");
  26. } catch (Exception e) {
  27. e.printStackTrace();
  28. }
  29.  
  30. return true;
  31. }
  32.  
  33. @GetMapping("test")
  34. @ResponseBody
  35. public String test(){
  36. System.out.println("hello world!");
  37. return "ok";
  38. }
  39. }

4、在application-dev.properties配置消费者

  1. #### kafka配置消费者 start ####
  2. # 指定默认消费者group id --> 由于在kafka中,同一组中的consumer不会读取到同一个消息,依靠groud.id设置组名
  3. spring.kafka.consumer.group-id=test
  4. # smallest和largest才有效,如果smallest重新0开始读取,如果是largest从logfile的offset读取。一般情况下我们都是设置smallest
  5. spring.kafka.consumer.auto-offset-reset=earliest
  6. # enable.auto.commit:true --> 设置自动提交offset
  7. spring.kafka.consumer.enable-auto-commit=true
  8. #如果'enable.auto.commit'为true,则消费者偏移自动提交给Kafka的频率(以毫秒为单位),默认值为5000。
  9. spring.kafka.consumer.auto-commit-interval=1000
  10.  
  11. # 指定消息key和消息体的编解码方式
  12. spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
  13. spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
  14.  
  15. #### kafka配置消费者 end ####

5、消费者监听topic=testTopic的消息

  1. import org.springframework.kafka.annotation.KafkaListener;
  2. import org.springframework.stereotype.Component;
  3.  
  4. /**
  5. * 消费者监听topic=testTopic的消息
  6. *
  7. * @author Lynch
  8. */
  9. @Component
  10. public class ConsumerListener {
  11.  
  12. @KafkaListener(topics = "testTopic")
  13. public void onMessage(String message){
  14. //insertIntoDb(buffer);//这里为插入数据库代码
  15. System.out.println("message: " + message);
  16. }
  17.  
  18. }

6、控制台打印消息

  1. http://localhost:8091/api/kafka/send?message=aaabbbccc
  2.  
  3. 消息发送成功...
  4. message: aaabbbccc
  5.  
  6. http://localhost:8091/api/kafka/send?message='1111' ##编解码方式是字符串,用单引号括起来表示字符串
  7.  
  8. 消息发送成功...
  9. message: '1111'

到此,采用Kafka提供的StringSerializer和StringDeserializer进行序列化和反序列化,因为此种序列化方式无法序列化实体类。

如果是实体类的消息传递,可以采用自定义序列化和反序列化器进行实体类的序列化和反序列化,由于Serializer和Deserializer影响到上下游系统,导致牵一发而动全身。自定义序列化&反序列化实现不是能力的体现,而是逗比的体现。所以强烈不建议自定义实现序列化&反序列化,推荐直接使用StringSerializer和StringDeserializer,然后使用json作为标准的数据传输格式。

SpringBoot整合kafka(实现producer和consumer)的更多相关文章

  1. SpringBoot系列八:SpringBoot整合消息服务(SpringBoot 整合 ActiveMQ、SpringBoot 整合 RabbitMQ、SpringBoot 整合 Kafka)

    声明:本文来源于MLDN培训视频的课堂笔记,写在这里只是为了方便查阅. 1.概念:SpringBoot 整合消息服务 2.具体内容 对于异步消息组件在实际的应用之中会有两类: · JMS:代表作就是 ...

  2. SpringBoot整合Kafka和Storm

    前言 本篇文章主要介绍的是SpringBoot整合kafka和storm以及在这过程遇到的一些问题和解决方案. kafka和storm的相关知识 如果你对kafka和storm熟悉的话,这一段可以直接 ...

  3. Kafka客户端Producer与Consumer

    Kafka客户端Producer与Consumer 一.pom.xml 二.相关配置文件 producer.properties log4j.properties base.properties 三. ...

  4. Kafka:Springboot整合Kafka消息队列

    本文主要分享下Spring Boot和Spring Kafka如何配置整合,实现发送和接收来自Spring Kafka的消息. 项目结构 pom依赖包 <?xml version="1 ...

  5. SpringBoot整合Kafka

    一.准备工作 提前启动zk,kafka,并且创建一个Topic("Hello-Kafk") bin/kafka-topics.sh --create --zookeeper 192 ...

  6. springboot 整合kafka

    本文介绍如何在springboot项目中集成kafka收发message. 1.先解决依赖 springboot相关的依赖我们就不提了,和kafka相关的只依赖一个spring-kafka集成包 &l ...

  7. SpringBoot(八) SpringBoot整合Kafka

    window下安装kafka和zooker,超详细:https://blog.csdn.net/weixin_33446857/article/details/81982455 kafka:安装下载教 ...

  8. Kafka的Producer和Consumer源码学习

    先解释下两个概念: high watermark (HW) 它表示已经被commited的最后一个message offset(所谓commited, 应该是ISR中所有replica都已写入),HW ...

  9. springboot系列八、springboot整合kafka

    背景: 当业务在同一时间出现高并发的时候,这个时候我们不想无限的增加服务器,但是又想提高吞吐量.这时可以考虑使用消息异步处理,进行消峰填谷:同时还可以降低耦合度.常见的消息中间件有kafka,rabb ...

随机推荐

  1. sqlite3数据库最大可以是多大?可以存放多少数据?读写性能怎么样?

    sqlite是款不错的数据库,使用方便,不需要事先安装软件,事先建表.很多人担心它的性能和数据存储量问题. 比如有的网友问:Sqlite数据库最大可以多大呀?会不会像acc数据库那样,几十MB就暴掉了 ...

  2. python基础(17):正则表达式

    1. 正则表达式 1.1 正则表达式是什么 正则表达式本身也和python没有什么关系,就是匹配字符串内容的一种规则. 官方定义:正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符 ...

  3. PHP+Mysql查询上一篇和下一篇文章实例

    简单的PHP+Mysql查询上一篇和下一篇文章实例,并输出上一篇和下一篇文章的标题和链接,适合新手学习 获取当前浏览文章id: $id = isset($_GET['id']) > 0 ? in ...

  4. python web框架Flask——csrf攻击

    CSRF是什么? (Cross Site Request Forgery, 跨站域请求伪造)是一种网络的攻击方式,它在 2007 年曾被列为互联网 20 大安全隐患之一,也被称为“One Click ...

  5. 江苏OSS用户权限修改

    市场服务二部”修改为“市场二部”.“市场服务三部”修改为“市场三部”.“县域服务一部”修改为“县域一部”.“县域服务二部”修改为“县域二部”.“综合管理部”修改为“综合业务部”. SELECT  * ...

  6. express 将 Router 实例模块化

    为了更好的组织代码,将 Router 实例进行模块化,将 get / post 等快捷方式放在Router上,而不是 App 上,然后将该 Router 作为中间件,use 到 server.js 上 ...

  7. Linux—使用man命令:man:command not found

    # 用echo $PATH查看该环境变量.这种问题一般是环境变量PATH不对的问题. [root@localhost ~]# echo $PATH # 用whereis命令查看,该指令的位置. [ro ...

  8. cannot resolve symbol 'XXX'

    原因:出现这种情况的原因是在IDEA或者myeclipse编译器中没有导入相关的jar包(jar包相当于类的集合,可以使用其中的类): 针对IDEA出现cannot resolve symbol 'X ...

  9. 21.Java基础_String类

    String类构造方法 package pack1; //推荐使用直接赋值的方式得到字符串 public class test { public static void main(String[] a ...

  10. 初学JavaScript正则表达式(七)

    量词 例: \d{20}\w\d?\w+\d*\d{3}\w{3,5}\d{3,} 20次数字字符 单词字符 出现零次或一次数字字符 至少出现一次单词字符 出现任意次数字字符 出现3次数字字符 出现3 ...