环境:腾讯云centos7

1、下载

  1. http://mirror.bit.edu.cn/apache/kafka/2.3.0/kafka_2.11-2.3.0.tgz

2、解压

  1. tar -xvf kafka_2.11-2.3.0.tgz
  2. mv kafka_2.11-2.3.0 /usr/java/kafka2.11
  3. cd /usr/java/kafka2.11

3、启动与测试

  1. (a)zookeeper启动
  2. bin/zookeeper-server-start.sh config/zookeeper.properties
  3. (b)kafka服务端启动
  4. bin/kafka-server-start.sh config/server.properties
  5. (c)列出topic
  6. bin/kafka-topics.sh --zookeeper localhost:2181 --list
  7. (d)创建topic
  8. bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic Demo1
  9. (e)描述Topic
  10. bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic Demo1
  11. (f)发布消息到指定的Topic
  12. bin/kafka-console-producer.sh --broker-list localhost:9092 --topic Demo1
  13. (g)消费指定Topic上的消息
  14. (已过时,老版本使用,否则报zookeeper is not a recognized option)
  15. bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic Demo1
  16.  
  17. bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic Demo1 --from-beginning

4、安装kafka web界面

  a)下载地址:https://github.com/quantifind/KafkaOffsetMonitor/releases/download/v0.2.1/KafkaOffsetMonitor-assembly-0.2.1.jar

  b) 运行

  1.   mkdir /mydata/kafkamonitorlogs
  2.  
  3. java -Xms512M -Xmx512M -Xss1024K -XX:PermSize=256m -XX:MaxPermSize=512m -cp KafkaOffsetMonitor-assembly-0.2.1.jar \
  4. com.quantifind.kafka.offsetapp.OffsetGetterWeb \
  5. --zk 132.232.44.82:2181 \
  6. --port 8787 \
  7. --refresh 10.seconds \
  8. --retain 7.days 1>/mydata/kafkamonitorlogs/stdout.log 2>/mydata/kafkamonitorlogs/stderr.log &

  c) web访问  

  1. http://ip:8787

本人虚拟机内存太小了,所以无法查看到消息列表,但是web界面确实可以用!

完毕!

########springboot集成实践###########

1、pom.xml添加依赖

  1. <dependency>
  2. <groupId>org.springframework.kafka</groupId>
  3. <artifactId>spring-kafka</artifactId>
  4. </dependency>

2、yml文件添加配置

  1. spring:
  2. profiles:
  3. active: @activatedProperties@
  4. kafka:
  5. bootstrap-servers: 132.232.44.82:9092
  6. producer:
  7. key-serializer: org.apache.kafka.common.serialization.StringSerializer
  8. value-serializer: org.apache.kafka.common.serialization.StringSerializer
  9. consumer:
  10. group-id: test
  11. enable-auto-commit: true
  12. auto-commit-interval: 1000
  13. key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  14. value-deserializer: org.apache.kafka.common.serialization.StringDeserializer

3、在Kafka的config/server.properties文件中添加

  1. advertised.listeners=PLAINTEXT://132.232.44.89:9092

4、KafkaConsumer.java

  1. package com.cn.commodity.controller;
  2.  
  3. import org.apache.kafka.clients.consumer.ConsumerRecord;
  4. import org.springframework.kafka.annotation.KafkaListener;
  5. import org.springframework.stereotype.Component;
  6.  
  7. /**
  8. * kafka消费者测试
  9. */
  10. @Component
  11. public class KafkaConsumer {
  12. @KafkaListener(topics = "test_topic1")
  13. public void listen (ConsumerRecord<?, ?> record) throws Exception {
  14. System.out.printf("topic = %s, offset = %d, value = %s \n", record.topic(), record.offset(), record.value());
  15. }
  16. }

5、KafkaProducer.java

  1. package com.cn.commodity.controller;
  2.  
  3. import org.springframework.beans.factory.annotation.Autowired;
  4. import org.springframework.kafka.core.KafkaTemplate;
  5. import org.springframework.web.bind.annotation.RequestMapping;
  6. import org.springframework.web.bind.annotation.RestController;
  7.  
  8. /**
  9. * 测试kafka生产者
  10. */
  11. @RestController
  12. @RequestMapping("kafka")
  13. public class KafkaProducer {
  14.  
  15. @Autowired
  16. private KafkaTemplate<String, String> kafkaTemplate;
  17.  
  18. @RequestMapping("send")
  19. public String send(String msg){
  20. kafkaTemplate.send("test_topic1", msg);
  21. return "success";
  22. }
  23.  
  24. }

启动运行,完毕!

springboot之kafka安装与实践的更多相关文章

  1. springboot之rabbitmq安装与实践

    环境:腾讯云centos7 注意:rabbitmq安装插件,可能会报错.本人是主机名的问题,所以修改了主机名. vim /etc/hosts vim /etc/hostname 修改这两个文件,并重启 ...

  2. springboot之activemq安装与实践

    环境:腾讯云centos7 注意:activemq安装插件,可能会报错.本人是主机名的问题,所以修改了主机名. vim /etc/hosts vim /etc/hostname 修改这两个文件,并重启 ...

  3. SpringBoot整合kafka(安装)

    项目路径:https://github.com/zhaopeng01/springboot-study/tree/master/study_14 序言 Kafka 是一种高吞吐的分布式发布订阅消息系统 ...

  4. SpringBoot整合Kafka和Storm

    前言 本篇文章主要介绍的是SpringBoot整合kafka和storm以及在这过程遇到的一些问题和解决方案. kafka和storm的相关知识 如果你对kafka和storm熟悉的话,这一段可以直接 ...

  5. kafka安装使用

    版本:kafka_2.11-0.10.1.0  (之前安装2.10-0.10.0.0,一直出问题) 安装 Springboot结合Kafka的使用 安装 下载并解压代码 wget http://mir ...

  6. kafka安装和使用

    kafka安装和启动 kafka的背景知识已经讲了很多了,让我们现在开始实践吧,假设你现在没有Kafka和ZooKeeper环境. Step 1: 下载代码 下载0.10.0.0版本并且解压它. &g ...

  7. 【Apache Kafka】二、Kafka安装及简单示例

    (一)Apache Kafka安装 1.安装环境与前提条件   安装环境:Ubuntu16.04   前提条件: ubuntu系统下安装好jdk 1.8以上版本,正确配置环境变量 ubuntu系统下安 ...

  8. springboot集成Kafka

    kafka和MQ的区别: 1)在架构模型方面, RabbitMQ遵循AMQP协议,RabbitMQ的broker由Exchange,Binding,queue组成,其中exchange和binding ...

  9. 【3】Kafka安装及部署

    一.环境准备 Linux操作系统 Java运行环境(1.6或以上) zookeeper 集群环境,可参照Zookeeper集群部署 . 服务器列表: 配置主机名映射. vi /etc/hosts ## ...

随机推荐

  1. MYSQL的操作命令

    一.御前 1 win+R  DOS 输入 net start mtsql 和 net stop mysql 启动和停止Mysql 服务,也可通过计算机——管理——服务和应用程序——服务——MYSQL— ...

  2. 【问题】Difference between ">/dev/null 2>&1" and "2>&1 >/dev/null"

    https://www.unix.com/shell-programming-and-scripting/125947-difference-between-dev-null-2-1-2-1-dev- ...

  3. Linux网络管理——路由配置文件、DNS配置文件、hosts文件

    路由配置文件 route命令添加的路由表,重启网络服务或者重启系统之后就全都失效了.可以创建针对网卡的路由配置文件,这样在重启网络服务 或者 重启系统的时候就会加载针对某个网卡的配置文件. CONFI ...

  4. Oracle 11g Dataguard 配置,维护与详解 (ADG)

    一.前言: 本手册主要记录如何配置,还介绍了配置原因,以及注意要点,已经主备切换,以及故障转移等重要操作步骤,我希望这个文章可以作为进行dataguard配置的一个参考手册. 二.前提 1.主库是归档 ...

  5. less混合

    混合(mixin)变量 .border{ border: 5px solid pink; } .box{ width: 300px;height:300px; .border; } => .bo ...

  6. mysql打开报错2013解决办法

    修改mysql配置文件 在[mysqld]下面设置skip-name-resolve 重启mysql from :https://www.jb51.net/article/52637.htm

  7. H5:加载原理,慢加载和卡顿原因分析,

    前端H5工作原理: 请求和显示原理 H5页面卡顿原因分析: 1.动画太多:渲染重绘占用GPU 2.页面操作导致重绘频繁 3.页面元素复杂:资源类标签太多(图像/视频/dom树太长) 4.内置webvi ...

  8. Spark1

    Spark集群 0.0体验安装Spark在集群单节点 1.tar tar -xzvf xxx.tgz -C /soft/ ln -s /soft/spark-2.1.0-bin-hadoop2.7 / ...

  9. django加载本地html

    django加载本地html from django.shortcuts import render from django.http import HttpResponse from django. ...

  10. vue中把props中的值赋值给data

    vue中把props中的值赋值给data 2018年12月26日 14:37:11 木豆mudou 阅读数 3497   版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上 ...