Apache Flink 为什么能够成为新一代大数据计算引擎?
众所周知,Apache Flink(以下简称 Flink)最早诞生于欧洲,2014 年由其创始团队捐赠给 Apache 基金会。如同其他诞生之初的项目,它新鲜,它开源,它适应了快速转的世界中更重视的速度与灵活性。
大数据时代对人类的数据驾驭能力提出了新的挑战,Flink 的诞生为企业用户获得更为快速、准确的计算能力提供了前所未有的空间与潜力。作为公认的新一代大数据计算引擎,Flink 究竟以何魅力成为阿里、腾讯、滴滴、美团、字节跳动、Netflix、Lyft 等国内外知名公司建设流计算平台的首选?

听听 Flink 的核心贡献者们怎么说!11 月 28-30 日,Flink Forward Asia 2019,Apache Flink 核心贡献者与业界资深专家带你全方位解锁 Flink 的独特技术魅力。
惊喜环节:ASK ME ANYTHING
提前剧透:大会现场将邀请 Apache Flink 核心贡献者们设置 Ask Me Anything 惊喜环节,Flink SQL、Runtime、Hive 等任何关于 Flink 的技术问题可以现场提问!
Flink 亲爹 Stephan 同学也可能参与现场互动哦,如果你好奇 Flink 的 logo 为什么是小松鼠就可以当面举手提问啦~
核心技术专场部分精彩议题概览
《将 Apache Flink 用作一体化的数据处理平台》
崔星灿,Apache Flink Committer,York University 博士后
作为新一代的流处理引擎,Apache Flink 已经广泛应用于很多实时作业场景中。我们发现它在经过近几个版本的迭代后,已经具备一些成为一体化数据处理平台的潜力,可同时用来处理动态和静态的数据,进行分布式和集中式计算,以及支持作业式和交互式任务等。
本次演讲,我们旨在向大家展示一些探索性质的尝试——将 Apache Flink 用作某一通用数据处理流程的一体化后端平台。具体而言,我们会首先介绍这一通用的数据处理流程,并简要描述它每个阶段的特点。随后,我们会详细解释如何在不触及 Flink 核心的前提下对其进行“塑造”,以满足多样化的数据处理需求。在此期间还会涉及部分对 Flink 运行机制的讲解。最后,基于将 Flink 打造成为一个真正的一体化数据处理平台这一目标,我们将对未来工作进行一些展望。
《Bring Cross DC and Cross Data Source SQL Engine to Apache Flink》
张韶全,腾讯 Senior Engineer
漂移计算 SuperSQL 是腾讯大数据自研的跨数据中心、跨集群、跨数据源的高性能大数据 SQL 引擎,满足对位于不同数据中心/集群的不同类型数据源的数据联邦分析/即时查询的需求。解决大数据中数据孤岛难题,降低数据使用壁垒,提升数据使用效率,最大化数据价值。
在这个演讲中,我们会介绍漂移计算 SuperSQL 项目的细节,包括:
- 漂移计算的背景和定位
- 漂移计算的主要技术挑战
- 漂移计算的整体架构
- 漂移计算的技术细节
- 漂移计算的性能表现
- 未来规划
《New Flink source API: Make it easy》
秦江杰,Apache Flink PMC,Apache Kafka PMC,阿里巴巴高级技术专家
Flink 已经拥有了丰富的 connector 生态,但是要为 Flink 创建一个生产可用的 connector 依然需要考虑包括多并发协同,一致性语义,线程模型和容错等在内的一系列问题,而其中 Source 相对于 Sink 又更为复杂。为了让用户更容易实现高质量的 connector,Flink 社区在 FLIP-27 中引入了一个新的 Flink Source API,旨在帮用户解决上述一系列复杂问题,让用户可以快速编写一个高质量的 connector。本演讲将介绍新的 Flink Source API 的设计思路以及如何利用新的 Source Connector API 快速创建一个生产可用的 Flink source connector。
《深入探索 Flink SQL 流批统一的查询引擎与最佳实践》
伍翀,Apache Flink Committer,阿里巴巴技术专家
李劲松,Apache Beam Committer,阿里巴巴技术专家
Flink SQL 作为 Apache Flink 的核心模块,已经收获了越来越多用户的关注,并且以其易于使用的 API 和高性能的 SQL 引擎,在生产实践中扮演者越来越重要的角色。
该演讲将以最新发布的 Flink SQL 为切入点,分别从流处理和批处理的角度,重点分享 Flink SQL 中核心功能的技术细节和调优经验,听众将收获对 Flink SQL 更深入的理解,以及了解如何对 Flink SQL 作业进行调优。
Apache Flink 核心技术专场完整议程
(11 月 28 日下午)

(11 月 29 日上午)

深度培训,实现技术与应用能力的积累提升
大会组委会还为使用 Flink、希望深度学习的开发者们精心准备了培训课程。届时,来自阿里巴巴和 Ververica 的 Flink 专家们将带领开发者开展为期一天半的深度学习。
- Apache Flink PMC 带队,超豪华阵容,阿里巴巴及 Flink 创始团队资深技术专家担任培训讲师,为开发者培训课程制定全面学习体系。
- 课程能够满足不同学习需求,无论是入门还是进阶,开发者可根据自身基础选择课程内容,实现技术与应用能力上的积累与提升。
课程主要大纲如下:
- 中阶一:Apache Flink 开发人员培训
本课程是对想要学习构建流应用程序的 Java 和 Scala 开发人员进行的关于 Apache Flink 的实践介绍。培训将重点介绍分布式数据流、事件时间和状态等核心概念。练习将使您有机会了解以上概念在 API 中是如何被体现的,并了解如何将这些概念组合用以解决实际问题。
- 介绍流计算和 Apache Flink
- DataStream API 的基础
- 为 Flink 开发做准备(包括练习)
- 有状态的流处理(包括练习)
- 时间、定时器和 ProcessFunction(包括练习)
- 连接多个流(包括练习)
- 测试(包括练习)
说明:不需要 Apache Flink 的相关知识。
- 中阶二:Apache Flink 运维培训
本课程是针对 Apache Flink 应用程序的部署和操作相关的实践性介绍。目标受众包括负责部署 Flink 应用程序和维护 Flink 集群的开发人员和运维人员。演示将重点介绍 Flink 运行中涉及的核心概念,以及用于部署、升级和监控 Flink 应用程序的主要工具。
- 介绍流计算和 Apache Flink
- 数据中心里的 Flink
- 分布式架构介绍
- 容器化部署(包括实际操作)
- 状态后端和容错(包括实际操作)
- 升级和状态迁移(包括实际操作)
- 指标(包括实践)
- 容量规划
说明:不需要对 Apache Flink 有先验知识。
- 中阶三:SQL 开发人员培训
Apache Flink 支持 SQL 作为流处理和批处理的统一 API。SQL 可以用于各种各样的场景,并且相比使用 Flink 的底层 API,SQL 将更容易构建和维护。在本次培训中,您将学习到如何充分发挥使用 SQL 来编写 Apache Flink 作业的潜力。我们将研究流式 SQL 的不同案例,包括连接流数据、维表关联、窗口聚合、维护物化视图,以及使用 MATCH RECOGNIZE 子句进行模式匹配(这是 SQL 2016 新提出的标准)。
- 介绍 SQL on Flink
- 使用 SQL 查询动态表
- 连接动态表
- 模式匹配与 match_recognition
- 生态系统&写外部表
说明:不需要 Apache Flink 的先验知识,但是需要基本的 SQL 知识。
- 高阶:Apache Flink 调优和问题排查
在过去的几年中,我们与许多 Flink 用户合作沟通期间了解到许多将流计算作业从早期 PoC 阶段慢慢过渡到生产过程中最常见的挑战。在此次培训中,我们将集中精力介绍这些挑战,并且帮助大家一起消除它。我们将提供一个有用的故障诊断工具集,并介绍例如监控、水印、序列化、状态后端等领域的最佳实践和技巧。在实践课程的间隙中,参与者将有机会使用新学习到的知识来解决一些异常 Flink 作业表现出来的问题。同时,我们也将归纳那些使作业没有进展或吞吐量没有达到预期,或作业延迟的常见原因。
- 时间和水印
- 状态处理和状态后端
- Flink 的容错机制
- 检查点和保存点
- DataStream API 和 ProcessFunction。
培训系列课程为精品小班教学,数量有限,预约满额将关闭入口,有相关培训需求的同学可尽早预约。详细说明:
- 参加培训请选择购买 VIP 套票。中阶培训购买 VIP 套票 1,高阶培训购买 VIP 套票 2。
- VIP 套票 1 可参与中阶所有课程,VIP 套票 2 可参与包括高阶、中阶培训在内的所有课程。
如果你也好奇 Flink 未来的主要探索方向,如何利用 Flink 将大数据、算力推到极致,Flink 有哪些新场景、新规划以及最佳实践等话题,来现场吧!相信这群来自一线的技术专家们,一定会刷新你对 Apache Flink 的认知。
点击「原文链接」可了解更多培训课程与 Flink Forward Asia 2019 大会议程~
本文作者:巴蜀真人
本文为云栖社区原创内容,未经允许不得转载。
Apache Flink 为什么能够成为新一代大数据计算引擎?的更多相关文章
- 大数据计算引擎之Flink Flink CEP复杂事件编程
原文地址: 大数据计算引擎之Flink Flink CEP复杂事件编程 复杂事件编程(CEP)是一种基于流处理的技术,将系统数据看作不同类型的事件,通过分析事件之间的关系,建立不同的时事件系序列库,并 ...
- 揭秘阿里云EB级大数据计算引擎MaxCompute
日前,全球权威咨询与服务机构Forrester发布了<The Forrester WaveTM: Cloud Data Warehouse, Q4 2018>报告.这是Forrester ...
- 大数据计算引擎之Flink Flink状态管理和容错
这里将介绍Flink对有状态计算的支持,其中包括状态计算和无状态计算的区别,以及在Flink中支持的不同状态类型,分别有 Keyed State 和 Operator State .另外针对状态数据的 ...
- 过年好,新一代大数据任务调度系统 - Apache DolphinScheduler 1.3.5 发布
节后上班第一天,新一代大数据任务调度 - Apache DolphinScheduler(incubator) 就迎来了好消息 - 在社区 20 多位小伙伴的贡献与努力下,社区发布了 1.3.5 版本 ...
- 新一代大数据任务调度系统 - Apache DolphinScheduler 1.3.4 发布,推荐下载
| 本文编辑:朱桐 新一代大数据任务调度 - Apache DolphinScheduler(incubator) 在经过社区 30 多位小伙伴的贡献与努力下于发布了 1.3.4 版本,1.3.4 作 ...
- 【喜讯】新一代大数据任务调度 - Apache DolphinScheduler 社区荣获OSCHINA年度 “最佳技术团队”...
新一代大数据任务调度 - Apache DolphinScheduler 继 11 月 19 日由 InfoQ 举办.在 300+ 参评项目中脱颖而出获得 "2020 年度十大开源新锐项目 ...
- 大数据计算平台Spark内核解读
1.Spark介绍 Spark是起源于美国加州大学伯克利分校AMPLab的大数据计算平台,在2010年开源,目前是Apache软件基金会的顶级项目.随着 Spark在大数据计算领域的暂露头角,越来越多 ...
- 大数据计算框架Hadoop, Spark和MPI
转自:https://www.cnblogs.com/reed/p/7730338.html 今天做题,其中一道是 请简要描述一下Hadoop, Spark, MPI三种计算框架的特点以及分别适用于什 ...
- 大数据计算平台Spark内核全面解读
1.Spark介绍 Spark是起源于美国加州大学伯克利分校AMPLab的大数据计算平台,在2010年开源,目前是Apache软件基金会的顶级项目.随着Spark在大数据计算领域的暂露头角,越来越多的 ...
随机推荐
- SHADER 用 step替代 if-else
今天聊起这个问题,百度发现了这个优化方式: https://blog.csdn.net/liu_if_else/article/details/77455639
- MySQL5.6多实例安装
MySQL-5.6.36.tar.gz多实例安装 查看官方安装说明 more INSTALL-SOURCE 安装cmake及相关依赖包 yum install -y cmake gcc [root@v ...
- 表单修饰符 number、trim、lazy
number修饰符 <input type="number" v-model.number="age"> 结论:age 类型则为number,非字符 ...
- UI自动化之cookies登录
现在有很多网站有验证码,跳过验证码实现登录可以使用cookies登录 目录 1.webdriver的添加cookies的方法 2.举个栗子 1.webdriver的添加cookies的方法 webdr ...
- 下载工具 qBittorrent 使用
官网地址,软件可以在官网上下载. GitHub 源码 知乎的参考链接 qBittorrent 是开源软件,支持用 BT 种子或种子的链接下载,也可以用磁力链接进行下载. 搜索功能 qBittorren ...
- 04 | 基础篇:经常说的 CPU 上下文切换是什么意思?(下)
上一节,我给你讲了 CPU 上下文切换的工作原理.简单回顾一下,CPU 上下文切换是保证 Linux 系统正常工作的一个核心功能,按照不同场景,可以分为进程上下文切换.线程上下文切换和中断上下文切换. ...
- Buy Tickets 【POJ - 2828】【线段树】
题目链接 有N次操作,每次都是将第i个数放置在第pos个数的后面,并且这个数的值是val. 这个线段树的思维确实很好,我们可以发现,后面放进去的数,一定是强制位置的,而前面放的数,会随着后面的数进入而 ...
- Java中的容器(集合)之HashMap源码解析
1.HashMap源码解析(JDK8) 基础原理: 对比上一篇<Java中的容器(集合)之ArrayList源码解析>而言,本篇只解析HashMap常用的核心方法的源码. HashMap是 ...
- [暑假集训Day2T3]团建活动
个人认为这周题中较难的一道. 题意大概为:给定一张N个点M条边的无向图,求出无向图的一棵最小生成树,满足一号节点的度数不超过给定的整数K.保证 N <= 20 首先用map存取节点,之后抛去1号 ...
- CodeForces 219D Choosing Capital for Treeland (树形DP)经典
<题目链接> 题目大意: 给定一个有向树,现在要你从这颗树上选一个点,使得从这个点出发,到达树上其它所有点所需翻转的边数最小,输出最少需要翻转的边数,并且将这些符合条件的点输出. 解题分析 ...