Apache Hudi 社区正在对Apache Hudi 1.x版本功能进行讨论,欢迎感兴趣同学参与讨论,PR链接:https://github.com/apache/hudi/pull/8679/files

摘要

RFC 提议对 Hudi 中的事务数据库层进行令人兴奋和强大的重构,以推动未来几年整个社区的持续创新。 在过去的几年里,社区成长(https://git-contributor.com/?chart=contributorOverTime&repo=apache/hudi)) 超过 6 倍的贡献者,这个 RFC 是围绕核心愿景澄清和调整社区的绝佳机会。 此 RFC 旨在作为此讨论的起点,然后征求反馈、接受新想法并协作建立共识,以实现有影响力的 Hudi 1.X 愿景,然后提炼出构成第一个版本——Hudi 1.0 的内容。

项目状态

众所周知,Hudi 最初于 2016 年在 Uber 创建,用于解决 大规模数据摄取](https://www.uber.com/blog/uber-big-data-platform/)) 和 [增量数据处理] ](https://www.uber.com/blog/ubers-lakehouse-architecture/)) 问题,后来 捐赠](https://www.uber.com/blog/apache-hudi/)) 给 ASF。自 2020 年作为顶级 Apache 项目毕业以来,社区在 [流数据湖愿景](https://hudi.apache.org/blog/2021/07/21/streaming-data-lake-platform),通过在一组强大的平台组件之上进行增量处理,使数据湖更加实时和高效。最新的 0.13 汇集了几个显着的功能来增强增量数据管道,包括 [RFC-51 Change Data Capture](https://github.com/apache/hudi/blob/master/rfc/rfc-51/rfc- 51.md),更高级的索引技术consistent hash indexes](https://github.com/apache/hudi/blob/master/rfc/rfc-42/rfc-42.md)) 和诸如 早期冲突检测](https://github.com/apache/hudi/blob/master/rfc/rfc-56/rfc-56.md)) 之类的创新。

如今 Hudi 用户](https://hudi.apache.org/powered-by)) 能够使用 Hudi 作为数据湖平台解决终端用例,该平台在可互操作的开放存储格式之上提供大量自动化。用户可以从文件/流系统/数据库中增量摄取,并将该数据插入/更新/删除到 Hudi 表中,并提供多种高性能索引选择。由于记录级元数据和增量/CDC 查询等核心设计选择,借助强大的流处理支持,用户能够始终如一地将摄取的数据链接到下游管道,近年来在 Apache Spark、Apache Flink 和 Kafka Connect 等框架中。 Hudi 表格服务会自动处理这些摄取和派生的数据,以管理表格簿记、元数据和存储布局的不同方面。最后,Hudi 对不同目录的广泛支持和跨各种查询引擎的广泛集成意味着 Hudi 表也可以“批量”处理老式风格或从交互式查询引擎访问。

未来的机会

我们一直在 0.x 版本中添加新功能,但我们也可以将 Hudi 的核心变成更通用的湖数据库体验。 作为 lakehouse 的第一个实现(我们称之为“交易数据湖”或“流数据湖”,分别是仓库用户和数据工程师的语言),我们根据当时的生态系统做了一些保守的选择。 然而,重新审视这些选择很重要,以便看看它们是否仍然有效。

  • 深度查询引擎集成: 当时 Presto、Spark、Flink、Trino 和 Hive 等查询引擎擅长查询列式数据文件,但很难集成到其中。 随着时间的推移,我们期望清晰的 API 抽象围绕 parquet/orc 读取路径中的索引/元数据/表快照,像 Hudi 这样的项目可以利用这些路径轻松利用像 Velox/PrestoDB 这样的创新。 然而大多数引擎更喜欢单独的集成——这导致 Hudi 维护自己的 Spark 数据源,Presto 和 Trino 连接器。 然而现在这为在查询计划和执行期间充分利用 Hudi 的多模式索引功能提供了机会。
  • 广义数据模型: 虽然 Hudi 支持主键,但我们专注于更新 Hudi 表,就好像它们是键值存储一样,而 SQL 查询在上面运行,保持不变并且无感知。 当时根据生态系统的位置推广对主键的支持还为时过早,因为生态系统仍在执行大批量 MR 作业。 如今,Apache Spark 和 Apache Flink 等性能更高的高级引擎具有成熟的可扩展 SQL 支持,可以支持 Hudi 表的通用关系数据模型。
  • 有服务器和无服务器:数据湖历来都是关于定期或按需触发的作业。 尽管许多元数据扩展挑战可以通过精心设计的元服务器来解决(类似于现代云仓库所做的),社区一直对除了数据目录或 Hive 元服务器之外的长期运行服务犹豫不决。 事实上我们的时间线服务器由于社区缺乏共识工作停滞不前。 然而随着并发控制等需求的发展,出现了围绕开放格式的这些问题的专有解决方案。 现在可能是时候通过采用混合架构来为社区转向真正开放的解决方案了,在该架构中,我们为表元数据使用服务器组件,同时为数据保留无服务器。
  • 除了结构化数据:即使我们解决了有关在 parquet/avro/orc 中摄取、存储、管理和转换数据的挑战,仍然有大多数其他数据无法从这些功能中受益。 使用 Hudi 的 HFile 表进行 ML 模型服务是一个新兴的用例,用户希望以低成本、轻量级的方式直接从湖存储中提供计算数据。 通常,非结构化数据,如 JSON 和 blob类似的图像必须使用某种结构进行伪建模,从而导致性能或可管理性不佳。 随着近年来 AI/ML 的迅速崛起,像 Hudi 这样的项目缺乏对复杂、非结构化、大 blob 的支持,只会让数据碎片化在湖泊中。为此,我们需要支持所有主要的图像、视频和 ML/AI 格式,并在索引、变异或捕获变化方面具有相同深度的功能。
  • 更强大的自我管理:Hudi 在开源数据湖管理方面提供了当今最广泛的功能集,从摄取数据到优化数据以及自动化各种簿记活动以自动管理表数据和元数据。 看到社区如何使用这个管理层来提升他们的数据湖体验令人印象深刻。

但是,我们有很多功能要添加,例如,反向流数据到其他系统或快照管理](https://github.com/apache/hudi/pull/6576/files))或[诊断报告器](https://github.com/apache/hudi/pull/6600)或跨地域逻辑复制或记录级 生存时间管理](https://github.com/apache/hudi/pull/8062))

Hudi 1.X

鉴于我们更像是一个数据库问题来处理 Hudi,因此 Hudi 有许多构成数据库的构建块也就不足为奇了。 从开创性的数据库系统架构论文(参见第 4 页)中绘制基线,我们可以看到 Hudi 如何构成针对湖优化的数据库的下半部分,具有多个查询引擎层 - SQL、编程访问、专门用于 ML /AI、实时分析和其他引擎处于领先地位。 下面的主要区域直接映射了我们如何跟踪 Hudi 路线图。 我们将看到我们如何专门针对数据湖的规模和湖工作负载的特征调整这些组件。

突出显示现有(绿色)和新(黄色)Hudi 组件以及外部组件(蓝色)的参考图。

数据库中的日志管理器组件有助于组织日志,以便在崩溃期间恢复数据库等。 在事务层,Hudi 实现了将数据组织到文件组和文件切片中的方法,并将修改表状态的事件存储在时间轴中。 Hudi 还使用标记文件跟踪进行中的事务以实现有效回滚。 由于该湖存储的数据比典型的操作数据库或数据仓库多得多,同时需要更长的记录版本跟踪,因此 Hudi 生成了记录级元数据,可以很好地压缩以帮助更改数据捕获或增量查询等功能,有效地将数据本身视为日志 . 未来我们希望继续完善 Hudi 的数据组织,提供可扩展的、无限的时间线和数据历史、时间旅行写入、存储联邦等功能。

锁管理器组件有助于在数据库中实现并发控制机制。 Hudi 附带了几个外部锁管理器,尽管我们最终希望通过我们今天仅提供时间线元数据的元服务器来简化这一点。 这篇论文(第 81 页)描述了数据库中常见的并发控制技术之间的权衡:2Phase Locking(没有中央事务管理器很难实现)、OCC(在没有争用的情况下工作良好,在争用时效率很差)和 MVCC(收益率 高吞吐量,但在某些情况下放松了可串行化性)。 Hudi 在并发写入器之间实现了 OCC,同时为写入器和表服务提供了基于 MVCC 的并发,以避免它们之间的任何阻塞。 退一步,我们需要问问自己,如果我们正在构建一个 OLTP 关系数据库,以避免盲目地将适用于它们的相同并发控制技术应用到写入湖的高吞吐量管道/作业的陷阱。 Hudi 并不是非常倾向于 OCC ,并鼓励通过输入流序列化更新/删除/插入,以避免 OCC 对快速变化的表或流式工作负载造成性能损失。 即使我们实施了早期冲突检测等技术来改进 OCC,此 RFC 也建议 Hudi 应该追求更通用的基于非阻塞 MVCC 的并发控制,同时为简单和批量附加的用例保留 OCC。

访问方法组件包括索引、元数据和存储布局组织技术,这些技术暴露给数据库的读/写。 去年我们新增了多模态索引,支持基于MVCC的异步建索引,建索引时不阻塞写者,建完后仍与表数据保持一致。 到目前为止,我们的重点一直更狭隘地针对使用索引技术来提高写入性能,而查询则受益于文件和列统计元数据以进行规划。 未来我们希望支持在写入和查询中统一使用各种索引类型,以便可以在 Hudi 的索引之上高效地规划、优化和执行查询。 由于 Hudi 的连接器适用于 Presto、Spark 和 Trino 等流行的开源引擎,现在这成为可能。 已经添加了新的二级索引方案和内置索引函数的建议,以索引从列派生的值。

缓冲区管理器组件管理脏存储块并缓存数据以加快查询响应速度。 在 Hudi 的上下文中,我们希望让我们现在期待已久的列式缓存服务焕发生机,该服务可以透明地位于湖存储和查询引擎之间,同时了解事务边界和记录突变。 RUM 猜想详细介绍了设计平衡读取、更新和内存成本的系统的权衡。 我们这里的基本想法是优化读取(从缓存中提供更快的查询)和更新(通过不断压缩内存来分摊 MoR 合并成本)成本,同时将缓存/内存成本添加到系统中。 目前,这个想法可能有很多候选设计,我们需要一个单独的设计/RFC 来实现它们。

共享组件包括复制、加载和各种实用程序,以及目录或元数据服务器。 大多数数据库隐藏了底层格式/存储的复杂性,为用户提供了许多数据管理工具。 Hudi 也不例外,Hudi 拥有久经考验的批量和连续数据加载实用程序(deltastreamer、flinkstreamer 工具以及 Kafka Connect Sink)、一套全面的表服务(清理、归档、压缩、集群、索引……)、admin CLI 等等。 社区一直致力于开发新的服务器组件,例如元服务器,它可以扩展为使用高级数据结构(例如区域映射/间隔树)或表服务管理器来索引表元数据,以集中管理 Hudi 表。 我们很乐意朝着拥有一组水平可扩展、高度可用的元服务器的方向发展,这些元服务器可以提供这些功能以及一些锁管理功能。 另一个有趣的方向是反向加载器/流数据实用程序,它也可以将数据从 Hudi 移出到其他外部存储系统中。

总而言之我们提出 Hudi 1.x 作为 Hudi 的重新构想,作为湖的事务数据库,具有多语言持久性,将 Hudi 数据湖的抽象和平台化水平提高到更高。

Hudi 1.0 发布

本节概述了第一个 1.0 版本目标和可能必须进行的前端加载更改。 此 RFC 征求社区的更多反馈和贡献,以扩大范围或在 1.0 版本中为用户提供更多价值。

简而言之,我们提出 Hudi 1.0 尝试并实现以下目标。

  • 合并对格式的所有/任何更改 - 时间线、日志、元数据表...
  • 跨表元数据、快照、索引/元数据表、主键生成、记录合并等建立新的 API(如果有的话)
  • 将内部代码分层/抽象到位 - 例如 HoodieData、文件组读取器/写入器、存储...
  • 以配置保护的安全方式登陆所有主要的、杰出的 "needle mover" PR
  • 集成 Spark/Flink/Presto 的部分/全部现有索引,并验证预期的功能和性能提升。

所有更改都应向后兼容,并且不需要重写现有表中的基本/镶木地板文件。 但是,从 0.x 版本迁移到 1.0 版本时,可能需要完全压缩日志或计划停机时间以重写时间线或重建元数据表。

该 RFC 将通过对 Hudi 不同部分的具体更改进行扩展。 请注意此 RFC 仅用于识别这些领域,对于影响存储格式、向后兼容性或新公共 API 的任何更改,应给出单独的 RFC。

推出/采用计划

我们建议 1.0 的执行在下面的三个版本系列中完成。

  • alpha(2023 年 7 月):所有格式更改均已落地,内部代码分层/抽象工作,主要未完成的 PR 已安全落地。 0.X 表可以无缝升级,核心 Hudi 写入/查询流程经过认证。
  • beta(2023 年 8 月):添加了新的 API,更改了代码路径以使用新的 API,索引集成了性能/功能资格。
  • Generally available(2023 年 9 月):在一般发布之前由社区进行规模测试、压力测试和生产强化。

Apache Hudi 1.x 版本重磅功能展望与讨论的更多相关文章

  1. 一文彻底理解Apache Hudi的多版本清理服务

    Apache Hudi提供了MVCC并发模型,保证写入端和读取端之间快照级别隔离.在本篇博客中我们将介绍如何配置来管理多个文件版本,此外还将讨论用户可使用的清理机制,以了解如何维护所需数量的旧文件版本 ...

  2. Apache Kafka 0.11版本新功能简介

    Apache Kafka近日推出0.11版本.这是一个里程碑式的大版本,特别是Kafka从这个版本开始支持“exactly-once”语义(下称EOS, exactly-once semantics) ...

  3. Uber基于Apache Hudi构建PB级数据湖实践

    1. 引言 从确保准确预计到达时间到预测最佳交通路线,在Uber平台上提供安全.无缝的运输和交付体验需要可靠.高性能的大规模数据存储和分析.2016年,Uber开发了增量处理框架Apache Hudi ...

  4. 使用Apache Spark和Apache Hudi构建分析数据湖

    1. 引入 大多数现代数据湖都是基于某种分布式文件系统(DFS),如HDFS或基于云的存储,如AWS S3构建的.遵循的基本原则之一是文件的"一次写入多次读取"访问模型.这对于处理 ...

  5. Apache Hudi 0.8.0版本重磅发布

    1. 重点特性 1.1 Flink集成 自从Hudi 0.7.0版本支持Flink写入后,Hudi社区又进一步完善了Flink和Hudi的集成.包括重新设计性能更好.扩展性更好.基于Flink状态索引 ...

  6. Apache Hudi 0.5.1版本重磅发布

    历经大约3个月时间,Apache Hudi 社区终于发布了0.5.1版本,这是Apache Hudi发布的第二个Apache版本,该版本中一些关键点如下 版本升级 将Spark版本从2.1.0升级到2 ...

  7. Apache Hudi 0.6.0版本重磅发布

    1. 下载信息 源码:Apache Hudi 0.6.0 Source Release (asc, sha512) 二进制Jar包:nexus 2. 迁移指南 如果您从0.5.3以前的版本迁移至0.6 ...

  8. Apache Hudi 0.9.0版本重磅发布!更强大的流式数据湖平台

    1. 重点特性 1.1 Spark SQL支持 0.9.0 添加了对使用 Spark SQL 的 DDL/DML 的支持,朝着使所有角色(非工程师.分析师等)更容易访问和操作 Hudi 迈出了一大步. ...

  9. 特性速览| Apache Hudi 0.5.3版本正式发布

    1. 下载连接 源代码下载:Apache Hudi 0.5.3 Source Release (asc, sha512) 0.5.3版本相关jar包地址:https://repository.apac ...

  10. Apache Hudi重磅特性解读之存量表高效迁移机制

    1. 摘要 随着Apache Hudi变得越来越流行,一个挑战就是用户如何将存量的历史表迁移到Apache Hudi,Apache Hudi维护了记录级别的元数据以便提供upserts和增量拉取的核心 ...

随机推荐

  1. 从零开始学习 Java 系列之你为什么要学 Java?

    全文大约[4000]字,不说废话,只讲可以让你学到技术.明白原理的纯干货! 在正式开始本系列教程之前,壹哥希望先用一篇文章,来扫清你学习前的认知障碍.请坚定自己的学习信念,不要半途而废浪费时间,壹哥希 ...

  2. 怎么在php7项目中安装event扩展

    今天就跟大家聊聊有关怎么在php7项目中安装event扩展,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获. 安装支持库libevent wget ...

  3. 【踩坑系列】发送微信模板消息返回40165 invalid weapp pagepath

    1. 踩坑经历 最近做了个需求,需要往公司微信公众号推送一个模板消息,并且点击该消息需要跳转到公司小程序的某个页面. 1.1 拿到模板id 既然是发送模板消息,第一步就需要登录微信公众号后台新建模板消 ...

  4. InnoDB 是如何解决幻读的

    前言 大部分人在日常的业务开发中,其实很少去关注数据库的事务相关问题,基本上都是 CURD 一把梭.正好最近在看 MySQL 的相关基础知识,其中对于幻读问题之前一直没有理解深刻,今天就来聊聊「Inn ...

  5. Chrome浏览器插件:CrxMouse(鼠标手势控制浏览器)

    CrxMouse是一款谷歌浏览器插件,它可以通过手势来控制您的浏览器,在您的日常网络浏览中提高效率和速度. 插件介绍 CrxMouse是一个非常流行的谷歌浏览器插件,它允许您通过鼠标手势来控制您的浏览 ...

  6. 【Azure Developer】使用 Microsoft Graph API 获取 AAD User 操作示例

    问题描述 查看官方文档" Get a user " , 产生了一个操作示例的想法,在中国区Azure环境中,演示如何获取AAD User信息. 问题解答 使用Microsoft G ...

  7. DeFi-W3

    Gas Fee 每一笔交易都会产生Gas Fee. GWei ETH的最小单位 出价(gas fee)的高低会影响交易上联的速度,越快就价格越高. gas fee是跟具体的计算量有关的 Smart c ...

  8. 吃透Redis面试八股文

    Redis连环40问,绝对够全! Redis是什么? Redis(Remote Dictionary Server)是一个使用 C 语言编写的,高性能非关系型的键值对数据库.与传统数据库不同的是,Re ...

  9. PowerBI(一) : 如何将powerBI报表嵌入内部web应用程序?

    最近做了一个PowerBI报表嵌入内部web应用系统的项目,分享一下主要步骤以及踩坑记录. 微软官网完整教程这里:https://learn.microsoft.com/zh-cn/power-bi/ ...

  10. [OpenCV-Python] 22 直方图

    文章目录 OpenCV-Python:IV OpenCV中的图像处理 22 直方图 22.1 直方图的计算,绘制与分析 22.1.1 统计直方图 22.1.2 绘制直方图 22.1.3 使用掩模 22 ...