Flink-v1.12官方网站翻译-P008-Streaming Analytics
流式分析
事件时间和水印
介绍
Flink明确支持三种不同的时间概念。
事件时间:事件发生的时间,由产生(或存储)该事件的设备记录的时间
摄取时间:Flink在摄取事件时记录的时间戳。
处理时间:您的管道中的特定操作员处理事件的时间。
为了获得可重复的结果,例如,在计算某一天股票在交易的第一个小时内达到的最高价格时,您应该使用事件时间。这样一来,结果就不会依赖于计算的时间。这种实时应用有时会使用处理时间,但这样一来,结果就会由该小时内恰好处理的事件决定,而不是由当时发生的事件决定。基于处理时间的计算分析会造成不一致,并使重新分析历史数据或测试新的实现变得困难。
使用事件时间
如果你想使用事件时间,你还需要提供一个时间戳提取器和水印生成器,Flink将使用它们来跟踪事件时间的进展。这将在下面的 "使用水印 "一节中介绍,但首先我们应该解释一下什么是水印。
水印
让我们通过一个简单的例子来说明为什么需要水印,以及它们是如何工作的。
在这个例子中,你有一个有时间戳的事件流,这些事件的到达顺序有些混乱,如下所示。显示的数字是时间戳,表示这些事件实际发生的时间。第一个到达的事件发生在时间4,随后是更早发生的事件,在时间2,以此类推。
现在想象一下,你正在尝试创建一个流分拣器。这个应用程序的目的是处理流中的每个事件,并发出一个新的流,其中包含相同的事件,但按时间戳排序。
一些观察。
(1)你的流分拣器看到的第一个元素是4, 但你不能马上把它作为排序流的第一个元素释放出来。它可能已经不按顺序到达,而更早的事件可能还没有到达。事实上,你对这个流的未来有一些神一样的知识,你可以看到,你的流排序器至少应该等到2到达后再产生任何结果。
一些缓冲,和一些延迟,是必要的。
(2)如果你做错了,你可能最终会永远等待。首先,分拣机看到了一个来自时间4的事件,然后是一个来自时间2的事件。一个时间戳小于2的事件会不会永远到达?也许会,也许不会。也许不会。你可以永远等待,永远看不到1。
最终你必须鼓起勇气,发出2作为排序流的开始。
(3)那么你需要的是某种策略,它定义了对于任何给定的时间戳事件,何时停止等待早期事件的到来。
这正是水印的作用--它们定义了何时停止等待早期事件。
Flink中的事件时间处理依赖于水印生成器,这些水印生成器将特殊的时间戳元素插入到流中,称为水印。时间t的水印是一种断言,即到时间t为止,流现在(可能)是完整的。
这个流分拣器应该在什么时候停止等待,并推出2开始分拣流?当一个时间戳为2,或更大的水印到达时。
(4)你可以想象不同的策略来决定如何生成水印。
每一个事件都是在一些延迟之后到达的,而这些延迟是不同的,所以一些事件的延迟比其他事件要多。一个简单的方法是假设这些延迟被某个最大延迟所约束。Flink将这种策略称为有界无序水印。很容易想象更复杂的水印方法,但对于大多数应用来说,固定的延迟已经足够好了。
延迟与完整性
关于水印的另一种思考方式是,水印让你这个流媒体应用程序的开发者能够控制延迟和完整性之间的权衡。与批处理不同的是,在批处理中,人们可以在产生任何结果之前完全了解输入,而在流式处理中,你最终必须停止等待看到更多的输入,并产生某种结果。
你可以积极地配置你的水印,用一个很短的延迟,从而承担在对输入不完全了解的情况下产生结果的风险--也就是说,一个可能是错误的结果,很快就产生了。或者你可以等待更长时间,并利用对输入流更完整的知识产生结果。
也可以实现混合解决方案,快速生成初始结果,然后在处理额外(后期)数据时对这些结果进行更新。对于某些应用来说,这是一种很好的方法。
延迟
迟到的定义是相对于水印而言的。一个水印(t)断言流在时间t之前是完整的;在这个水印之后的任何事件,如果时间戳≤t,则为迟到。
使用水印
为了执行基于事件时间的事件处理,Flink需要知道与每个事件相关联的时间,还需要流包含水印。
实践练习中使用的Taxi数据源为你处理了这些细节。但在你自己的应用程序中,你必须自己处理这些事情,通常是通过实现一个类来实现,该类从事件中提取时间戳,并按需生成水印。最简单的方法是使用WatermarkStrategy。
DataStream<Event> stream = ... WatermarkStrategy<Event> strategy = WatermarkStrategy
.<Event>forBoundedOutOfOrderness(Duration.ofSeconds(20))
.withTimestampAssigner((event, timestamp) -> event.timestamp); DataStream<Event> withTimestampsAndWatermarks =
stream.assignTimestampsAndWatermarks(strategy);
窗口
Flink具有非常丰富的窗口语义表现力。
在本节中,你将学习
- 如何使用窗口来计算非边界流上的聚合。
- Flink支持哪些类型的窗口,以及
- 如何实现一个窗口化聚合的DataStream程序?
介绍
在做流处理的时候,自然而然地想要计算流的有界子集的聚合分析,以回答这样的问题。
- 每分钟的页面浏览量
- 每个用户每周会话数
- 每个传感器每分钟的最高温度
用Flink计算窗口化分析依赖于两个主要的抽象。窗口分配器(Window Assigners)将事件分配给窗口(必要时创建新的窗口对象),窗口函数(Window Functions)应用于分配给窗口的事件。
Flink的窗口API还有Triggers的概念,它决定什么时候调用窗口函数,还有Evictors,它可以删除窗口中收集的元素。
在它的基本形式中,你将窗口化应用到像这样的键控流中。
stream.
.keyBy(<key selector>)
.window(<window assigner>)
.reduce|aggregate|process(<window function>)
您也可以对非键流使用窗口化,但请记住,在这种情况下,处理将不会并行进行。
stream.
.windowAll(<window assigner>)
.reduce|aggregate|process(<window function>)
窗口分配器
Flink内置了几种类型的窗口分配器,如下图所示。
一些例子说明这些窗口分配器的用途,以及如何指定它们。
- 滚动时间窗口
- 每分钟浏览量
- TumblingEventTimeWindows.of(Time.minutes(1))
- 滑动时间窗口
- 每10秒计算的每分钟页面浏览量
- SlidingEventTimeWindows.of(Time.min(1), Time.seconds(10))
- 会话窗口
- 每节课的页面浏览量,其中每节课之间至少有30分钟的间隔。
- EventTimeSessionWindows.withGap(Time.minutes(30))
可以使用Time.milliseconds(n)、Time.seconds(n)、Time.minutes(n)、Time.hours(n)和Time.days(n)中的一种指定持续时间。
基于时间的窗口分配器(包括会话窗口)有事件时间和处理时间两种风味。这两种类型的时间窗口之间有显著的权衡。对于处理时间窗口,你必须接受这些限制。
- 不能正确处理历史数据。
- 不能正确处理失序数据。
- 结果将是非确定性的。
但具有较低延迟的优势。
当使用基于计数的窗口时,请记住,这些窗口将不会启动,直到一个批次完成。没有超时和处理部分窗口的选项,尽管你可以用自定义的触发器自己实现这种行为。
全局窗口分配器将每个事件(用相同的键)分配到同一个全局窗口。只有当你打算使用自定义触发器来做你自己的自定义窗口时,这才是有用的。在许多看似有用的情况下,您最好使用另一节中描述的ProcessFunction。
窗口功能
对于如何处理窗口的内容,您有三个基本选项。
- 作为一个批次,使用一个ProcessWindowFunction,它将被传递一个包含窗口内容的Iterable。
- 以增量方式,使用ReduceFunction或AggregateFunction,当每个事件被分配到窗口时被调用。
- 或两者结合,当窗口被触发时,ReduceFunction或AggregateFunction的预聚集结果被提供给ProcessWindowFunction。
这里是方法1和3的例子。每个实施例都在1分钟的事件时间窗口中从每个传感器中找到峰值值,并产生包含(key,end-of-window-timestamp,max_value)的Tuples流。
流程窗口函数示例
DataStream<SensorReading> input = ... input
.keyBy(x -> x.key)
.window(TumblingEventTimeWindows.of(Time.minutes(1)))
.process(new MyWastefulMax()); public static class MyWastefulMax extends ProcessWindowFunction<
SensorReading, // input type
Tuple3<String, Long, Integer>, // output type
String, // key type
TimeWindow> { // window type @Override
public void process(
String key,
Context context,
Iterable<SensorReading> events,
Collector<Tuple3<String, Long, Integer>> out) { int max = 0;
for (SensorReading event : events) {
max = Math.max(event.value, max);
}
out.collect(Tuple3.of(key, context.window().getEnd(), max));
}
}
在这个实现中,有几件事需要注意。
- 所有分配给窗口的事件都必须在键控的Flink状态下被缓冲,直到窗口被触发。这可能是相当昂贵的。
- 我们的ProcessWindowFunction被传递了一个Context对象,其中包含了窗口的信息。它的接口是这样的。
public abstract class Context implements java.io.Serializable {
public abstract W window(); public abstract long currentProcessingTime();
public abstract long currentWatermark(); public abstract KeyedStateStore windowState();
public abstract KeyedStateStore globalState();
}
windowState 和 globalState 是您可以存储该键的所有窗口的每键、每窗口或全局每键信息的地方。例如,如果您想记录一些关于当前窗口的信息,并在处理后续窗口时使用这些信息,这可能很有用。
递增聚合实例
DataStream<SensorReading> input = ... input
.keyBy(x -> x.key)
.window(TumblingEventTimeWindows.of(Time.minutes(1)))
.reduce(new MyReducingMax(), new MyWindowFunction()); private static class MyReducingMax implements ReduceFunction<SensorReading> {
public SensorReading reduce(SensorReading r1, SensorReading r2) {
return r1.value() > r2.value() ? r1 : r2;
}
} private static class MyWindowFunction extends ProcessWindowFunction<
SensorReading, Tuple3<String, Long, SensorReading>, String, TimeWindow> { @Override
public void process(
String key,
Context context,
Iterable<SensorReading> maxReading,
Collector<Tuple3<String, Long, SensorReading>> out) { SensorReading max = maxReading.iterator().next();
out.collect(Tuple3.of(key, context.window().getEnd(), max));
}
}
请注意,Iterable<SensorReading>将只包含一个读数--由MyReducingMax计算的预聚集最大值。
迟到的事件
默认情况下,当使用事件时间窗口时,迟到的事件会被丢弃。窗口 API 有两个可选部分可以让您对此有更多的控制。
您可以使用名为 "侧输出 "的机制,安排将被丢弃的事件收集到一个备用的输出流中。下面是一个例子,说明这可能是什么样子的。
OutputTag<Event> lateTag = new OutputTag<Event>("late"){}; SingleOutputStreamOperator<Event> result = stream.
.keyBy(...)
.window(...)
.sideOutputLateData(lateTag)
.process(...); DataStream<Event> lateStream = result.getSideOutput(lateTag);
您还可以指定允许的延迟时间间隔,在此期间,延迟事件将继续分配给相应的窗口(其状态将被保留)。默认情况下,每个延迟事件都会导致窗口函数再次被调用(有时称为延迟发射)。
换句话说,水印后面的元素会被丢弃(或发送到侧面输出)。
比如说
stream.
.keyBy(...)
.window(...)
.allowedLateness(Time.seconds(10))
.process(...);
当允许的延迟大于零时,只有那些晚到会被丢弃的事件才会被发送到侧面输出(如果已经配置了)。
惊喜
Flink的windowing API的某些方面可能并不像你所期望的那样。基于flink-用户邮件列表和其他地方的常见问题,这里有一些关于窗口的事实可能会让你感到惊讶。
滑动窗口进行复制
滑动窗口分配器可以创建很多窗口对象,并将每个事件复制到每个相关窗口中。例如,如果你每15分钟有一个长度为24小时的滑动窗口,每个事件将被复制到4*24=96个窗口中。
时间窗口对准时代
仅仅因为你使用了一个小时的处理时间窗口,并且在12:05开始运行你的应用程序,并不意味着第一个窗口会在1:05关闭。第一个窗口将是55分钟,在1:00关闭。
但是请注意,翻滚窗口和滑动窗口分配器采用一个可选的偏移参数,可以用来改变窗口的对齐方式。详情请参见翻滚窗口和滑动窗口。
窗口可以跟随窗口
例如,这样做是可行的
stream
.keyBy(t -> t.key)
.window(<window assigner>)
.reduce(<reduce function>)
.windowAll(<same window assigner>)
.reduce(<same reduce function>)
你可能会期望Flink的运行时足够聪明,能够为你做这种并行的预聚集(前提是你使用的是ReduceFunction或AggregateFunction),但事实并非如此。
之所以这样做的原因是,一个时间窗口产生的事件会根据窗口结束的时间分配时间戳。所以,例如,一个小时长的窗口产生的所有事件都会有标记一个小时结束的时间戳。任何消耗这些事件的后续窗口的持续时间应与前一个窗口相同,或为前一个窗口的倍数。
没有结果显示为空的时间窗口
只有当事件被分配到窗口时,才会创建窗口。因此,如果在给定的时间框架内没有事件,将不会报告结果。
迟来的事件会导致迟来的合并
会话窗口是基于可以合并的窗口的抽象。每个元素最初都被分配到一个新的窗口,之后只要窗口之间的间隙足够小,就会合并。这样一来,一个迟到的事件就可以弥合两个先前分开的会话之间的差距,产生一个迟到的合并。
实践
与本节配套的实战练习是《时时彩技巧练习》。
下一步阅读
Flink-v1.12官方网站翻译-P008-Streaming Analytics的更多相关文章
- Flink-v1.12官方网站翻译-P017-Execution Mode (Batch/Streaming)
执行模式(批处理/流处理) DataStream API 支持不同的运行时执行模式,您可以根据用例的要求和作业的特点从中选择.DataStream API 有一种 "经典 "的执行 ...
- Flink-v1.12官方网站翻译-P005-Learn Flink: Hands-on Training
学习Flink:实践培训 本次培训的目标和范围 本培训介绍了Apache Flink,包括足够的内容让你开始编写可扩展的流式ETL,分析和事件驱动的应用程序,同时省略了很多(最终重要的)细节.本书的重 ...
- Flink-v1.12官方网站翻译-P002-Fraud Detection with the DataStream API
使用DataStream API进行欺诈检测 Apache Flink提供了一个DataStream API,用于构建强大的.有状态的流式应用.它提供了对状态和时间的精细控制,这使得高级事件驱动系统的 ...
- Flink-v1.12官方网站翻译-P025-Queryable State Beta
可查询的状态 注意:可查询状态的客户端API目前处于不断发展的状态,对所提供接口的稳定性不做保证.在即将到来的Flink版本中,客户端的API很可能会有突破性的变化. 简而言之,该功能将Flink的托 ...
- Flink-v1.12官方网站翻译-P015-Glossary
术语表 Flink Application Cluster Flink应用集群是一个专用的Flink集群,它只执行一个Flink应用的Flink作业.Flink集群的寿命与Flink应用的寿命绑定. ...
- Flink-v1.12官方网站翻译-P001-Local Installation
本地安装 按照以下几个步骤下载最新的稳定版本并开始使用. 第一步:下载 为了能够运行Flink,唯一的要求是安装了一个有效的Java 8或11.你可以通过以下命令检查Java的正确安装. java - ...
- Flink-v1.12官方网站翻译-P016-Flink DataStream API Programming Guide
Flink DataStream API编程指南 Flink中的DataStream程序是对数据流实现转换的常规程序(如过滤.更新状态.定义窗口.聚合).数据流最初是由各种来源(如消息队列.套接字流. ...
- Flink-v1.12官方网站翻译-P006-Intro to the DataStream API
DataStream API介绍 本次培训的重点是广泛地介绍DataStream API,使你能够开始编写流媒体应用程序. 哪些数据可以流化? Flink的DataStream APIs for Ja ...
- Flink-v1.12官方网站翻译-P004-Flink Operations Playground
Flink操作训练场 在各种环境中部署和操作Apache Flink的方法有很多.无论这种多样性如何,Flink集群的基本构件保持不变,类似的操作原则也适用. 在这个操场上,你将学习如何管理和运行Fl ...
随机推荐
- node环境使用lowdb轻量数据库以及基本用法
1.安装: npm install lowdb --save 2..引入lowdb,设置表 const low = require('lowdb'); const FileSync = requir ...
- <input type="image">表单提交2次 重复插入数据问题
写一个表单提交用到图片:两种代码. <input type="image" src="xxx.gif"onclick="return dosub ...
- redis简介与window安装:
redis简介与window安装: 花开堪折直需折,莫待无花空折枝 Redis 概念:Redis (REmote DIctionary Server) 是用 C 语言开发的一个开源的高性能键值对(ke ...
- C++把数字排序
C++把数字排序 描述 思路 代码 描述 如题,详细如下: 输入不超过1024个数字,以特殊数字结尾,如(-999),把数字从小到大排序. 思路 目前,我们有两种思路可以写: 1是 在输入的时候,排序 ...
- WPF 调试时拖拽不生效
WPF窗体代码 <Window x:Class="SerialLabelDemo.Test.Window10" xmlns="http://schemas.micr ...
- Mac最新Flutter环境搭建运行和对比理解声明式UI
前言 这段时间一直都在学习和写关于SwiftUI的东西,前面也总结了四篇文章来大体上说了下Demo中功能实现的一些细节,后面准备开始了解学习一下Flutter,争取在年前能再用Flutter写一份项目 ...
- MQ for linux安装与卸载【转】
MQ for linux安装与卸载[转] 一.安装步骤:1. 用root帐号登录系统2. MQ安装程序需将代码安装到目录/opt/mqm下,将数据保存到目录/var/mqm下,需确保相关目录下有足够的 ...
- CSS卡片旋转
html{ perspective: 800px; } body{ display:flex; flex-wrap: wrap; } .card{ transform-style: preserve- ...
- 细说 js 的7种继承方式
在这之前,先搞清楚下面这个问题: function Father(){} Father.prototype.name = 'father'; Father.prototype.children = [ ...
- Python基础语法6-冒泡排序
用for循环实现冒泡排序(升序): array = [3,2,1] for i in range(len(array) - 1, 0, -1): for j in range(0, i): if ...