简介:本文对消息队列 Kafka「检索组件」进行详细介绍,首先通过对消息队列使用过程中的痛点问题进行介绍,然后针对痛点问题提出相应的解决办法,并对关键技术技术进行解读,旨在帮助大家对消息队列 Kafka「检索组件」的特点及使用方式更加熟悉,以期可以帮助大家更有效的解决在消息排查过程中遇到的痛点问题。

作者:Kafka&Tablestore团队

前言

还在为消息队列使用时,不能高效排查重复和失败的消息而困扰吗?

还在为消息队列使用时,无法准确查找消息内容和定位问题而苦恼吗?

。。。

消息队列 Kafka「检索组件」来帮您~

本文对消息队列 Kafka「检索组件」进行详细介绍,首先通过对消息队列使用过程中的痛点问题进行介绍,然后针对痛点问题提出相应的解决办法,并对关键技术技术进行解读,旨在帮助大家对消息队列 Kafka「检索组件」的特点及使用方式更加熟悉,以期可以帮助大家更有效的解决在消息排查过程中遇到的痛点问题。

痛点问题介绍

在消息队列的使用过程中,业内默认的是假设消息进入消息队列后,消息是可靠的,丢失的概率也是低的。但实际应用中会面临各种各样的问题:

应用时面临的痛点问题

  • 由于分布式系统的特性,消息的失败、重复是不可避免的,对于失败和重复的排查,通常是依靠客户端的日志来推导,但如果规模庞大,客户手动做这个事情的难度也会很大,这就会使消息的可靠性受到挑战;
  • 此外,较大的项目一般由多人或多团队协作完成,消息发送和消费的代码实现方式也各异,这会给消息最终是否成功完成使命带来挑战;
  • 除了对问题结果的排查外,消息会不会在产生时就不符合预期呢?这同样也是困扰客户的难点之一。从目前消息队列的体系来看,还无法提供按照内容查看的方式来排查,导致了业务的正确性排查难度较大。

简单来说,消息领域往往每条消息都能代表具体的含义和动作,一旦出现失败、丢失和错误,在业内现有的消息队列现状下,很难排查具体问题,从而会导致定位整个上下游链路的问题难度较大。

技术侧面临的痛点问题

以上是客户在消息应用的场景中会面临的问题。基于应用场景问题,在技术侧同样会面临不少痛点,在处理消息问题排查时:

  • 首先需要研发的代码投入、部署和运维,同时运维人员需要比较熟悉 Kafka 的使用,需要通过使用 Kafka 客户端进行消费者消费,然后按照遍历的方式进行消息确认,从而确认消息的存在;
  • 除了需要研发的代码投入、部署和运维外,可能还需要引入其他产品,如对接流计算,通过流计算遍历消息等。

更为麻烦的是,目前这种排查往往是非常频繁的,经常以周、甚至以天为单位,会使得研发、部署和运维投入较高的时间成本;同时每次需要确认的元信息都不一样,会导致投入较大,而且灵活性也不高。

总结来说,消息队列在使用过程中对失败和重复等问题排查时,一来在没有较好的工具和方式完成对内容的检索,排查难度较高,准确性和易用性都不足;二来需要投入较高的时间和人力成本,投入大且不灵活。这些问题都会给用户在进行消息问题排查时带来不少困扰。

Kafka 检索组件介绍

通过上述痛点问题的介绍可以看到,目前在消息领域,对消息排查等存在比较多的痛点问题,为了解决以上问题,阿里云消息队列 Kafka 版重磅推出消息检索组件。下面对组件内容进行详细介绍:

检索组件简介

消息队列 Kafka「检索组件」是一个全托管、高弹性、交互式的检索组件,具备万亿级别消息内容检索的秒级响应能力。

  • 主要面向运维人员故障排查和恢复场景,用于消息相关的全链路消息排查,包括消息的发送、重复生产和丢失校验;主要功能包括支持消息按 Topic 分区、位点范围和时间范围检索,同时支持按消息 Key 和 Value 关键字检索等;
  • 主要用来解决业内消息产品不支持检索消息内容的难题。

消息队列 Kafka「消息检索」借助 Kafka Connect 功能及表格存储(Tablestore)实现,通过 Connector 对 Topic 中的消息进行转储,然后发送到表格存储中的数据表中,最后通过表格存储索引功能提供消息检索的能力。

其核心是提供了完备的消息内容检索能力,可以快速定位问题,同时便捷操作、节省人力;当用户使用时,在完成消息队列 Kafka 实例创建后,仅需简单五步即可实现对 Kafka 检索组件的应用:

下面简要对消息队列 Kafka 版消息检索的操作步骤进行介绍。

检索组件操作介绍

1)开通消息检索

首先开通某个实例下 Topic 的消息检索功能,以便根据需要对其 Topic 中的消息进行检索。步骤如下:

  • 登录消息队列 Kafka 版控制台;
  • 在概览页面的资源分布区域,选择地域;
  • 在左侧导航栏,单击消息检索;
  • 在消息检索页面,从选择实例的下拉列表选择需检索 Topic 消息所属的实例,然后单击开通消息检索;
  • 开通消息检索面板,填写开通参数,然后单击确定。

2)测试发送消息

开通消息检索后,可以向消息队列 Kafka 版的数据源 Topic 发送消息,以此来调度任务和测试消息检索是否创建成功。

  • 在消息检索页面,找到需要测试的目标 Topic,根据任务状态在对应位置操作;
  • 在快速体验消息收发面板中发送测试消息。

3)搜索消息

  • 在消息检索页面,找到目标 Topic,在其操作列,单击搜索;
  • 在搜索面板,设置搜索条件,在搜索项下拉列表中选择需要添加的搜索项,单击添加搜索项,添加搜索项并在值列设置搜索信息,然后单击确定即可。

4)查看消息检索任务详情

  • 开通消息检索后,即可查看自动创建的 Topic、Group、表格存储实例名称、表格存储数据表表名等详细信息,也可以在详情中直接进入表格存储数据表;
  • 在消息检索页面,找到目标 Topic,在其操作列,单击详情;
  • 在任务详情页面可以查看到目标 Topic 相关消息检索的详细信息;也可以在基础信息区域的目标服务栏,单击表格存储,即可进入数据表详情页面查看。

5)查看消费详情

支持查看订阅当前 Topic 的在线 Group 在 Topic 各个分区的消费进度,了解消息的消费和堆积情况。

  • 在消息检索页面,找到需要查看消费进度的目标 Topic,在其操作列,单击消费进度;
  • 如下图,在消费详情页面,可以查看 Topic 各分区的消费情况:

除以上功能外,在运行消息检索功能时,还可以实现暂停消息检索任务、启用消息检索任务和删除消息检索任务等操作。

Kafka 检索组件技术解读

之前消息队列 Kafka 版的消息检索方式仅支持根据消费位点或创建时间的两种范围来查找,依靠 Kafka 系统本身无法很好的支持用户对于通过关键字检索消息的需求。

为了更好的解决这个问题,Kafka 与 Tablestore 强强联合,将 Kafka 消息通过 Connector 导入 Tablestore 的数据表中,利用 Tablestore 的能力实现关键字检索。

下面对关键技术进行解读:

Kafka Connect

Kafka Connect 的核心是为解决异构数据的同步问题。解决的思路是在各个数据源之间加一层消息中间件,所有的数据都经过消息中间件进行存储和分发。

这样做的好处有以下两点:

1)通过消息中间件做异步解耦,所有系统只和消息中间件通信;

2)需要开发的解析工具数量,也从原来的 n 平方个,变成线性的 2*n 个;Kafka Connect 则用于连接消息系统和数据源,根据数据的流向不同,连接可以分为 Source Connector 和 Sink Connector。

其原理也很简单,Source Connector 负责解析来源数据,转换成标准格式的消息,通过 Kafka Producer 发送到 Kafka Broker中。同理,Sink Connector 则通过 Kafka Consumer 消费对应的 Topic,然后投递到目标系统中。在整个过程中,Kafka Connect 统一解决了任务调度、与消息系统交互、自动扩缩容、容错以及监控等问题,大大减少了重复劳动。

消息队列 Kafka 版提供了全托管、免运维的 Kafka Connect,用于消息队列 Kafka 版和其他阿里云服务之间的数据同步。如下图所示,可以看到消息队列 Kafka 版支持了表格存储 Tablestore、Mysql Source Connector、OSS Sink Connector、MaxCompute Sink Connector 以及 FC Sink Connector 等主流的 Connector。如果用户想要使用这些 Connector 进行数据同步,只用在消息队列 Kafka 控制台的图形界面上做几个配置,就可以一键拉起 Connector 任务。

表格存储 Tablestore

表格存储 Tablestore 是构建在阿里云飞天分布式系统之上的海量结构化数据存储服务。基于飞天盘古分布式文件系统作为存储底座,采用存储计算分离架构,弹性共享资源池设计,实现了一个云原生的 Serverless 存储产品。内置分布式索引系统,可根据写入流量自动扩展构建索引所需的计算资源,支撑极高的写入流量。同时优化了索引结构,能够支持更快速的模糊查询。存算分离架构、高吞吐实时索引等关键能力让 Tablestore 能够支撑 Kafka 中海量数据的写入与高效搜索,帮助快速有效检索所需信息。

技术领先性

Kafka+Kafka Connect+ 表格存储 Tablestore 的云原生数据应用解决方案,通过 Kafka Connect 作为实时处理任务触发器,能够实时接收到新发送到消息队列集群的数据,然后转发到表格存储 Tablestore。

作为后续数据流转中的一环,Kafka Connect 除了保障数据的实时性以外,还解决了任务调度、与消息系统交互、自动扩缩容、容错以及监控等问题,大大减少了重复劳动。数据到了表格存储 Tablestore 以后,借助表格存储的分布式存储和强大的索引引擎,能够支持 PB 级存储、千万 TPS 和毫秒级延迟的服务能力,同时支持全托管、高弹性、交互式的检索组件,从而可实现秒级响应的万亿级别消息内容检索能力。

面向用户的价值与优势

Kafka 检索组件功能不仅具备较强的技术优势,同时还能为用户的实际工作带来更多便利:

1、排查成本低

只需要控制台的简单配置就能实现 Kafka 服务器集群内所有的消息的查看;

2、排查速度快

免开发、免资源评估、免部署、免运维;只要建立好检索条件,即可实现秒级查询响应;

3、排查准确性高

该检索组件功能由消息商业化团队和 Tablestore 团队核心研发联合打造,依托于阿里云云原生的能力,检索准确性高,可靠性和可用性可以得到很好的保障。

总结来说,Kafka 检索组件功能在实际业务中具备如下优势:

  • 快速定位问题,可实现消息上下游产品的故障、异常快速恢复,减少业务资损;
  • 节省企业成本,减少运维、研发等人员投入;
  • 降低学习成本,对消息产品的理解机制要求降低。

总结

阿里云消息队列 Kafka「检索组件」是消息队列领域内率先支持交互式消息内容检索的组件,具备免开发、免运维、高弹性的特点。对于在消息领域中的中、重度用户来说,阿里云消息队列 Kafka「检索组件」是日常排查消息存在 & 正确性的利器。

原文链接

本文为阿里云原创内容,未经允许不得转载。

消息队列Kafka「检索组件」重磅上线!的更多相关文章

  1. 消息队列kafka

    消息队列kafka   为什么用消息队列 举例 比如在一个企业里,技术老大接到boss的任务,技术老大把这个任务拆分成多个小任务,完成所有的小任务就算搞定整个任务了. 那么在执行这些小任务的时候,可能 ...

  2. 分布式消息队列 Kafka

    分布式消息队列 Kafka 2016-02-25 杜亦舒 Kafka是一个高吞吐量的.分布式的消息系统,由Linkedin开发,开发语言为scala具有高吞吐.可扩展.分布式等特点 适用场景 活动数据 ...

  3. 消息队列——kafka

    原文:再过半小时,你就能明白kafka的工作原理了 会出现什么情况呢? 1.为了这个女朋友,我请假回去拿(老板不批). 2.小哥一直在你楼下等(小哥还有其他的快递要送). 3.周末再送(显然等不及). ...

  4. 基于Docker搭建分布式消息队列Kafka

    本文基于Docker搭建一套单节点的Kafka消息队列,Kafka依赖Zookeeper为其管理集群信息,虽然本例不涉及集群,但是该有的组件都还是会有,典型的kafka分布式架构如下图所示.本例搭建的 ...

  5. 消息队列 Kafka 的基本知识及 .NET Core 客户端

    前言 最新项目中要用到消息队列来做消息的传输,之所以选着 Kafka 是因为要配合其他 java 项目中,所以就对 Kafka 了解了一下,也算是做个笔记吧. 本篇不谈论 Kafka 和其他的一些消息 ...

  6. 消息队列-Kafka学习

    Kafka是一个分布式的消息队列,学习见Apache Kafka文档,中文翻译见Kafka分享,一个简单的入门例子见kafka代码入门实例.本文只针对自己感兴趣的点记录下. 1.架构 Producer ...

  7. 消息队列Kafka学习记录

    Kafka其实只是众多消息队列中的一种,对于Kafka的具体释义我这里就不多说了,详见:http://baike.baidu.com/link?url=HWFYszYuMdP_lueFH5bmYnlm ...

  8. (转)消息队列 Kafka 的基本知识及 .NET Core 客户端

    原文地址:https://www.cnblogs.com/savorboard/p/dotnetcore-kafka.html 前言 最新项目中要用到消息队列来做消息的传输,之所以选着 Kafka 是 ...

  9. Kafka 消息队列系列之分布式消息队列Kafka

    介绍 ApacheKafka®是一个分布式流媒体平台.这到底是什么意思呢?我们认为流媒体平台具有三个关键功能:它可以让你发布和订阅记录流.在这方面,它类似于消​​息队列或企业消息传递系统.它允许您以容 ...

  10. 消息队列——Kafka基本使用及原理分析

    文章目录 一.什么是Kafka 二.Kafka的基本使用 1. 单机环境搭建及命令行的基本使用 2. 集群搭建 3. Java API的基本使用 三.Kafka原理浅析 1. topic和partit ...

随机推荐

  1. 投屏Sink端音频底层解码并用OpenSLES进行播放

    一.代码分析 在公司项目中,音频解码及播放是把数据传到Java层进行解码播放的,其实这个步骤没有必要,完全可以在底层进行处理. 通过代码发现其实也做了在底层进行解码,那么为啥不直接使用底层解码播放呢, ...

  2. Adapter分组封装

    YCGroupAdapter 01.前沿说明 1.1 案例展示效果 1.2 该库功能和优势 1.3 相关类介绍说明 02.如何使用 2.1 如何引入 2.2 最简单使用 2.3 使用建议 03.常用a ...

  3. 【K8S】如何进入kubernetes的一个pod

    如何进入kubernetes的一个pod呢,其实和进入docker的一个容器相似: 进入docker容器 : docker exec -ti <your-container-name> / ...

  4. 深度探索.NET Feature Management功能开关的魔法

    前言 .NET Feature Management 是一个用于管理应用程序功能的库,它可以帮助开发人员在应用程序中轻松地添加.移除和管理功能.使用 Feature Management,开发人员可以 ...

  5. KingbaseES V8R6数据库运维案例之---用户权限导致的备份恢复故障

    案例说明: 由于限制了用户对数据库的访问,导致在执行'sys_backup.sh init'初始化物理备份时,执行失败. 适用版本: KingbaseES V8R6 一.问题现象 如下所示,执行'sy ...

  6. #树的直径#洛谷 3174 [HAOI2009]毛毛虫

    题目 分析 类似于树的直径,只是点权变成了出度-1, 注意减1之后会漏掉两个端点要加回去,当\(n=1\)时特判 代码 #include <cstdio> #include <cct ...

  7. OTP/HOTP/TOTP的资料

    参考资料 [加解密]动态令牌-(OTP,HOTP,TOTP)-基本原理 每天一个小知识:HOTP HOTP和TOTP算法图解 RFC HMAC: Keyed-Hashing for Message A ...

  8. Ohos-MPChart——支持多种图表绘制的组件

    简介 Ohos-MPChart是OpenAtom OpenHarmony(简称"OpenHarmony")系统显示各种图表视图的三方组件,用于声明式应用开发,提供了多种多样的图表视 ...

  9. 及刻周边惠:拥抱HarmonyOS原子化服务

    原文链接:https://mp.weixin.qq.com/s/Y75eiRlvDLXzoZWzAiZdeg,点击链接查看更多技术内容: 开发背景 及刻周边惠是梦享网络旗下本地生活服务平台,旨在为消费 ...

  10. HDC 2022重磅首发《鸿蒙生态应用开发白皮书》,附全文

    原文:https://mp.weixin.qq.com/s/sEicsV_82770nAlcSCzwIw,点击链接查看更多技术内容.   11月4-6日,华为开发者大会2022(HDC)在东莞松山湖举 ...