前言:基于Windows系统下的Kafka环境搭建;以及使用.NET 6环境进行开发简单的生产者与消费者的演示。

一、环境部署

Kafka是使用Java语言和Scala语言开发的,所以需要有对应的Java环境,以及Scala语言环境。

Java环境配置,如果不清楚的,可以查看鄙人的另一篇博客:

https://www.cnblogs.com/weskynet/p/14852471.html

1、Scala环境安装,需要先下载Scala语言包,下载地址:

https://www.scala-lang.org/download/scala2.html

要选择Binaries版本的环境,否则需要自己编译:

2、Kafka基于Zookeeper环境运行,zookeeper提供给kafka一系列的功能支持,所以还需要安装Zookeeper有关的环境。下载zookeeper地址:

https://zookeeper.apache.org/releases.html#download

3、同样,Zookeeper也需要下载带bin 的链接,没有带bin的链接,可能是源码,需要自己编译:

4、接下来是下载主角,Kafka了。下载地址:

https://kafka.apache.org/downloads.html

5、同样需要选择下载binary版本,然后根据scala的版本选择对应的版本。

6、下载的三个安装包,如图所示:

7、先安装Scala语言包环境:

8、验证Scala语言包是否安装成功:

控制台窗口,输入:scala -version

如果提示类似如下有关版本信息,则代表安装成功。

9、然后是安装zookeeper环境。必须先启动zookeeper,才可以使用kafka。

安装zookeeper环境,先解压下载的包,然后在解压后的目录下新增data文件夹

10、然后复制data文件夹的绝对路径,备用。在conf文件夹下,编辑cfg文件

11、在cfg文件内,修改dataDir指定为上面新建的data文件夹的绝对路径。注意路径是斜杠/,如果要使用 \ 反斜杆,需要写双反斜杠 \\

12、也要更改cfg格式的文件名称为 zoo.cfg 否则zookeeper无法识别配置文件。Zoo.cfg文件是zookeeper启动时候自动关联的默认配置文件名称。

13、然后新建环境变量 ZOOKEEPER_HOME:

14、环境变量path新增:%ZOOKEEPER_HOME%\bin

15、启动zookeeper,直接任意打开控制台,输入 zkServer

16、如果都没有报错,一般是启动成功了的。再次验证下,可以任意开个控制台,输入JPS进行查看,如下图所示,有JPS、也有QuorumPeerMain,代表zookeeper启动成功了。

17、Kafka环境安装。先解压,然后在解压后的目录下,新增logs文件夹

18、然后在Config文件夹下,修改 server.properties 文件,修改 log.dirs 的值为 新增的logs文件夹的绝对路径

19、进入到解压后的kafka目录下,在路径栏输入cmd,快速打开当前文件夹下的控制台窗口:

20、输入命令:

.\bin\windows\kafka-server-start.bat .\config\server.properties

进行启动Kafka服务:

21、启动Kafka报错了,可能是版本问题,kafka一般新版本对windows环境不友好,所以降级一下。此处我把kafka3.0降级为2.8:

22、此处我下载的版本为 2.13-2.8.1,各位大佬们可以按照自己意愿选择版本。可能2.x版本和3.x版本跨度比较大,所以3.0版本没法玩。

23、然后是重复以上配置kafka有关的动作,修改有关配置文件以及新增logs文件夹等。此处省略。

24、接着在低版本的kafka目录下,快速进入当前解压缩的目录下,再次输入有关命令尝试一下:

25、没有提示错误,根据提示信息,代表是启动成功了。任意打开控制台,再输入JPS查看下,可以看到Kafka,确认是启动OK了。

26、然后是要一款Kafka可视化工具,此处我选择使用offset explorer  (原来是叫kafka tools,如下载地址所示),下载地址:

https://www.kafkatool.com/download.html

27、安装可视化工具,默认可以一直下一步:

28、可以在安装目录下把可执行程序发送到桌面快捷方式,方便打开。

29、一些配置,包括名称、kafka版本、端口号、服务地址等

30、连接以后的效果图,如下。Topic是空的,接下来写点代码。

二、代码开发与测试

31、新建类库项目,当作kafka服务类库

32、此处选择标准库2.1,用于可以给多种.net core版本使用,方便兼容。

33、引用 Confluent.Kafka 包。

34、此处新增发布服务类和订阅服务类:

35、新增的生产者发布服务方法代码如下:

代码:

 /// <summary>
/// Description: Kafka生产者发布服务
/// CreateTime: 2022/1/21 19:35:27
/// Author: Wesky
/// </summary>
public class PublishService: IPublishService
{
public async Task PublishAsync<TMessage>(string broker, string topicName, TMessage message) where TMessage : class
{
var config = new ProducerConfig
{
BootstrapServers = broker, // kafka服务集群,例如 "192.168.0.1:9092,192.168.0.2:9092" 或者单机 "192.168.0.1:9092"
Acks = Acks.All,
MessageSendMaxRetries = 3, // 发送失败重试的次数
};
using (var producer = new ProducerBuilder<string, string>(config).Build())
{
try
{
string data = Newtonsoft.Json.JsonConvert.SerializeObject(message);
var sendData = new Message<string, string> { Key = Guid.NewGuid().ToString("N"), Value = data};
var report = await producer.ProduceAsync(topicName, sendData);
Console.WriteLine($"消息 >>>>>: {data} \r\n发送到:{report.TopicPartitionOffset}");
}
catch (ProduceException<string, string> ex)
{
Console.WriteLine($"消息发送失败>>>>>:\r\n Code= {ex.Error.Code} >>> \r\nError= {ex.Message}");
}
}
}
}

36、新增的消费者接收服务方法代码如下:

代码:

/// <summary>
/// Description: kafka 消费者订阅服务
/// CreateTime: 2022/1/21 19:36:25
/// Author: Wesky
/// </summary>
public class SubscribeService: ISubscribeService
{ /// <summary>
/// 消费者服务核心代码
/// </summary>
/// <typeparam name="TMessage"></typeparam>
/// <param name="config">消费者配置信息</param>
/// <param name="topics">主题集合</param>
/// <param name="func"></param>
/// <param name="cancellationToken"></param>
/// <returns></returns>
public async Task SubscribeAsync<TMessage>(ConsumerConfig config, IEnumerable<string> topics, Action<TMessage> func, CancellationToken cancellationToken) where TMessage : class
{
const int commitPeriod = 1;
using (var consumer = new ConsumerBuilder<Ignore, string>(config)
.SetErrorHandler((_, e) =>
{
Console.WriteLine($"消费错误 >>>>>: {e.Reason}");
})
.SetStatisticsHandler((_, json) =>
{
Console.WriteLine($"************************************************");
})
.SetPartitionsAssignedHandler((c, partitionList) =>
{
string partitions = string.Join(", ", partitionList);
Console.WriteLine($"分配的分区 >>>>> : {partitions}");
})
.SetPartitionsRevokedHandler((c, partitionList) =>
{
string partitions = string.Join(", ", partitionList);
Console.WriteLine($"回收的分区 >>>>> : {partitions}");
})
.Build())
{
consumer.Subscribe(topics);
try
{
while (true)
{
try
{
var consumeResult = consumer.Consume(cancellationToken);
if (consumeResult.IsPartitionEOF)
{
continue;
}
if(consumeResult?.Offset % commitPeriod == 0){
try
{
var result = JsonConvert.DeserializeObject<TMessage>(consumeResult.Message?.Value);
func(result); // 消费消息
}
catch (Exception ex)
{
Console.WriteLine($"消费业务处理失败: {ex.Message}");
}
try
{
consumer.Commit(consumeResult); // 手动提交 Console.WriteLine($"消费者消费完成,已提交 ");
}
catch (KafkaException e)
{
Console.WriteLine($"提交错误 >>>>> : {e.Error.Reason}");
}
}
}
catch (ConsumeException e)
{
Console.WriteLine($"消费错误>>>>> : {e.Error.Reason}");
}
}
}
catch (Exception e)
{
Console.WriteLine($"其他错误 >>>>> :{e.Message}");
consumer.Close();
}
}
await Task.CompletedTask;
}
}

37、并且提供对应的接口服务,用于开放给外部调用,或者提供依赖注入使用:

38、新建一个控制台项目,用来当作消费者端的测试,并且新增一个方法,用来当作消费者接收到消息以后的业务处理方法体。此处控制台环境版本为.NET 6

39、消费客户端代码如下。其中,BootstrapServers也可以提供集群地址,例如 ip1:port,ip2:port…… 服务之间以半角逗号隔开。

40、再新增一个webapi项目,用来当作生产者的客户端进行发送数据。以及对kafka服务类部分进行依赖注入注册,此处使用单例。该webapi此处使用.NET 6环境,带有控制器的模式。

41、新增的控制器里面,进行生产者的注入与实现。注意:topicName参数对应上边的topic-wesky,通过主题绑定,否则消费者不认识就没办法消费到了。

控制器代码:

  [Route("api/[controller]/[action]")]
[ApiController]
public class ProducerController : ControllerBase
{
IPublishService _service = null;
public ProducerController(IPublishService publishService)
{
_service = publishService;
}
[HttpPost]
public IActionResult SendMessage(string broker,string topicName,string message)
{
_service.PublishAsync(broker, topicName, message);
return Ok();
}
}

42、接下来是一些测试,如图所示:

43、最后,使用可视化管理工具Offset进行查看,可以看到对应的主题。选中主题,可以设置数据类型,这里我设置为字符串,就可以查看到对应的消息内容了。如果没有设置,默认是16进制的数据。

44、查看刚刚测试时候收发的消息队列里面的数据,如下所示:

45、一些额外补充:

Kafka也是消息队列的一种,用于在高吞吐量场景下使用比较适合。如果是轻量级的,只需要用于削峰,可以使用RabbitMQ。

以上只是简单的操作演示,至于要用得溜,观众朋友们可以自行补充所需的相关理论知识。

可视化工具还有一款yahoo提供的开源的工具,叫kafka-manager,有兴趣的大佬们可以自行玩玩,开源地址:

https://github.com/yahoo/CMAK

还有一款滴滴平台做的开源的kafka运维管理平台,有兴趣的大佬们也可以自行了解,地址:

https://github.com/didi/LogiKM

以上就是该博客的全部内容,感谢各位大佬们的观看~

【Kafka】基于Windows环境的Kafka有关环境(scala+zookeeper+kafka+可视化工具)搭建、以及使用.NET环境开发的案例代码与演示的更多相关文章

  1. Windows 8 64位系统 在VS2010 32位软件上 搭建 PCL点云库 开发环境

    Windows 8 64位系统 在VS2010 32位软件上 搭建 PCL点云库 开发环境 下载PCL For windows 软件包 到这个网站下载PCL-All-In-One Installer: ...

  2. 在windows中使用labelimg工具搭建图像标注小环境

    文章分成两个部分,第一部分,labelimg工具的安装:第二部分,labelimg工具的使用方法. 第一部分:工具安装 方法一:直接使用网上编译好的Labelimg可执行文件(12.6M),双击执行即 ...

  3. 推荐:使用 Anaconda 工具搭建并管理 Python 环境

    https://www.anaconda.com/distribution/#download-section  官网下载地址 https://mirror.tuna.tsinghua.edu.cn/ ...

  4. 基于S7-PLCSIM Advanced搭建S7通信仿真环境

    写在前面: 之前有专门讲过一期如何搭建西门子PLC的S7通信仿真环境,感兴趣的可以点击查看:戳↓ 1.基于TIA搭建西门子PLC仿真环境及通信方案-联合出品 2.手把手教你搭建西门子PLC仿真环境 那 ...

  5. 在阿里云 ECS 搭建 nginx https nodejs 环境(三、nodejs)

    在阿里云 ECS 搭建 nginx https nodejs 环境(三.nodejs) 在阿里云 ECS 搭建 nginx https nodejs 环境(三.nodejs) 第一步 指定版本源 执行 ...

  6. Kafka单机Windows环境搭建

    Kafka单机Windows环境搭建 1,安装jdk1.8:安装目录不能有中文空格: 2,下载zookeeper,https://mirrors.cnnic.cn/apache/zookeeper/z ...

  7. 【Kafka】Windows环境配置测试

    一.配置 1.Java配置:JAVA_HOME路径不要有空格 2.下载/kafka_2.11-1.1.0,地址是https://www.apache.org/dyn/closer.cgi?path=/ ...

  8. window环境搭建zookeeper,kafka集群

    为了演示集群的效果,这里准备一台虚拟机(window 7),在虚拟机中搭建了单IP多节点的zookeeper集群(多IP节点的也是同理的),并且在本机(win 7)和虚拟机中都安装了kafka. 前期 ...

  9. 基于Windows环境下cmd/编译器无法输入中文,显示中文乱码解决方案

    基于Windows环境下cmd/编译器无法输入中文,显示中文乱码解决方案 两个月前做C++课设的时候,电脑编译器编译结果出现了中文乱码,寻求了百度和大神们,都没有解决这个问题,百度上一堆解释是对编译器 ...

随机推荐

  1. Java整合redis报错s if RDB snapshotting fails (stop-writes-on-bgsave-error option)

    Caused by: io.lettuce.core.RedisCommandExecutionException: MISCONF Redis is configured to save RDB s ...

  2. table中tr、td标签设置只读,不能修改(readonly属性)

    在不能修改的位置加上代码:onselectstart="return false" οnselect="document.selection.empty()" ...

  3. 【LeetCode】764. Largest Plus Sign 解题报告(Python)

    [LeetCode]764. Largest Plus Sign 解题报告(Python) 作者: 负雪明烛 id: fuxuemingzhu 个人博客: http://fuxuemingzhu.cn ...

  4. poj 2566Bound Found(前缀和,尺取法)

    http://poj.org/problem?id=2566: Bound Found Time Limit: 5000MS   Memory Limit: 65536K Total Submissi ...

  5. 1021 - Painful Bases

    1021 - Painful Bases   PDF (English) Statistics Forum Time Limit: 2 second(s) Memory Limit: 32 MB As ...

  6. ZOJ 3872: Beauty of Array(思维)

    Beauty of Array Time Limit: 2 Seconds Memory Limit: 65536 KB Edward has an array A with N integers. ...

  7. $\infty$-former: Infinite Memory Transformer

    目录 概 主要内容 如何扩展? 实验细节 Martins P., Marinho Z. and Martins A. \(\infty\)-former: Infinite Memory Transf ...

  8. Boosting Adversarial Training with Hypersphere Embedding

    目录 概 主要内容 代码 Pang T., Yang X., Dong Y., Xu K., Su H., Zhu J. Boosting Adversarial Training with Hype ...

  9. playwright--自动化(三): 跳过检测 使用正常谷歌 指定用户数据 下载文件

    首先上一个被拷贝的惨不忍睹 上一个是滑块验证[https://www.cnblogs.com/carl-/p/15761861.html] 还是前两天做一个商城后台爬虫,限制用户缓存,不能用谷歌开发版 ...

  10. Hadoop(HDFS,YARN)的HA集群安装

    搭建Hadoop的HDFS HA及YARN HA集群,基于2.7.1版本安装. 安装规划 角色规划 IP/机器名 安装软件 运行进程 namenode1 zdh-240 hadoop NameNode ...