Flink不同于其他实时计算的框架之处是它可以提供针对不同的状态进行编程和计算。本篇文章的主要思路如下,大家可以选择性阅读。

  1. Flink的状态分类及不同点。

  2. Flink针对不同的状态进行编程。

  3. 检查点机制和配置。

  4. 状态的存储。

  

  •  Flilnk的状态分类及不同点

    Flink有两种不同的状态分类,一种是Keyed State(键状态),一种是Operator State(算子状态)。

    • Keyed State

      主要是针对KeyedStream中使用,当使用keyBy方法的时候进行计算。 我们都知道在计算的过程中就是将Flink按照<并行operator, key> 进行计算,每个key又归属于单个Operator,所以我们可以简单的理解为<operator, key>。也就是说首先按Operator分配到不同的实例,然后在不同的实例中,相同的Key分配到相同的组中,然后这些状态就可以在相同的组中进行获取和计算。

    • Operator State

      主要针对不同的算子的状态计算。按照不同的算子如Map, FlatMap,Reduce等算子去分配不同的实例群。像Kafka Connector的例子就很好的应用了这个功能,根据不同的topic去读取不同的状态,比如计算获取到topic的paritition分区和 offset偏移量。 每个算子实例会维护着这个topic的partition及offset的Map状态,这个例子就是很好的使用了Opertator的state。如果Operator并行度发生改变了的话,那么状态也会相应的分配好对应的状态。

  • 可管理的及原生状态

  这两种状态又分为 Managed State (可管理状态)和 Raw State (原生状态)

    • Managed State : 可管理状态就是自己去定义和编写状态处理的逻辑,全部由自己和Flink进行控制。
    • Raw State : 原生状态也就是在Operator算子触发 checkPoint 检查点的时候,Flink会在其数据结构中写入一部分字节码Byte,Flink只能看到其中有一些码,但是无法去进行控制。

  所有的流数据功能都可以使用Managed State,这个也是Flink编程所推荐的。因为要使用Raw State的话比较底层也比较复杂,要实现算子方法时才使用。

  • Flink针对不同的状态进行编程

  我们只针对可管理的状态进行操作,不同的管理 Keyed State 和Operator State 状态原始方法定义可参考官网介绍

    • Keyed State

     我们针对Keyed managed state进行编程。来个场景,假如Flink计算某个功能的时间,如果某个功能Key时间超过某个阈值了则进行计数,如果数据超过了设置的次数,那么直接输出到控制台。直接参考如下代码。

  代码大致的思路是:

  继承RichFlatMapFunction, 定义一个ListState<Long>用于记录当前的状态。

  定义阈值和错误次数值,触发后直接输出控制台下。

  open方法实例化ListState。在里边设置了一下状态的TTL,即状态的生命周期。

  flatMap方法按key分配后的value进行判断和记录。

  最后main方法进行数据准备和输出。

  1. package myflink.state;
  2.  
  3. import org.apache.commons.compress.utils.Lists;
  4. import org.apache.flink.api.common.functions.RichFlatMapFunction;
  5. import org.apache.flink.api.common.state.ListState;
  6. import org.apache.flink.api.common.state.ListStateDescriptor;
  7. import org.apache.flink.api.common.state.StateTtlConfig;
  8. import org.apache.flink.api.common.time.Time;
  9. import org.apache.flink.api.common.typeinfo.TypeHint;
  10. import org.apache.flink.api.common.typeinfo.TypeInformation;
  11. import org.apache.flink.api.java.tuple.Tuple2;
  12. import org.apache.flink.configuration.Configuration;
  13. import org.apache.flink.streaming.api.datastream.DataStreamSource;
  14. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
  15. import org.apache.flink.util.Collector;
  16.  
  17. import java.util.ArrayList;
  18. import java.util.List;
  19.  
  20. public class ThresholdWarning extends RichFlatMapFunction<Tuple2<String, Long>, Tuple2<String, List<Long>>> {
  21.  
  22. //通过ListState来存储非正常数据的状态
  23. private transient ListState<Long> abnormalData;
  24. //需要监控的阈值
  25. private Long threshold;
  26. //触发报警的次数
  27. private Integer numberOfTimes;
  28.  
  29. public ThresholdWarning(Long threshold, Integer numberOfTimes) {
  30. this.threshold = threshold;
  31. this.numberOfTimes = numberOfTimes;
  32. }
  33.  
  34. @Override
  35. public void open(Configuration parameters) throws Exception {
  36.  
  37. ListStateDescriptor listStateDescriptor = new ListStateDescriptor<Long>("abnormal-state",
  38. TypeInformation.of(Long.class));
  39.  
  40. //状态存活生命周期设置TTL Time To Live
  41. StateTtlConfig ttlConfig = StateTtlConfig
  42. //设置有效期为10秒
  43. .newBuilder(Time.seconds(10L))
  44. //设置有效的更新规则,当创建和写入的时候需要重新更新为10S
  45. .setUpdateType(StateTtlConfig.UpdateType.OnCreateAndWrite)
  46. //设置状态的可见性,设置状态如果没有删除,那么就是可见的,另外一个值:ReturnExpiredIfNotCleanedUp ,
  47. // 如果没有清理的话,状态会一直可见的
  48. .setStateVisibility(StateTtlConfig.StateVisibility.NeverReturnExpired)
  49. .build();
  50.  
  51. //设置TTL配置
  52. listStateDescriptor.enableTimeToLive(ttlConfig);
  53.  
  54. //通过状态名称(句柄)获取状态实例,如果不存在则会自动建
  55. abnormalData = getRuntimeContext().getListState(new ListStateDescriptor<Long>("abnormal-state",
  56. TypeInformation.of(Long.class)));
  57. }
  58.  
  59. @Override
  60. public void flatMap(Tuple2<String, Long> value, Collector<Tuple2<String, List<Long>>> out) throws Exception {
  61. Long inputValue = value.f1;
  62. //如果输入的值超过阈值,则记录该次不正常的数据信息
  63. if(inputValue >= threshold) {
  64. abnormalData.add(inputValue);
  65. }
  66.  
  67. ArrayList<Long> list = Lists.newArrayList(abnormalData.get().iterator());
  68.  
  69. //如果不正常的数据超过了指定的数量,则输出报警信息
  70. if(list.size() >= numberOfTimes) {
  71. out.collect(Tuple2.of(value.f0 + " 超过指定阈值数量", list));
  72. //报警信息输出后,清空状态
  73. abnormalData.clear();
  74. }
  75. }
  76.  
  77. public static void main(String[] args) throws Exception {
  78. final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
  79.  
  80. //设置并行度为1,用于观察输出
  81. // env.setParallelism(1);
  82.  
  83. DataStreamSource<Tuple2<String, Long>> tuple2DataStreamSource = env.fromElements(
  84. Tuple2.of("a", 50L), Tuple2.of("a", 80L), Tuple2.of("a", 400L),
  85. Tuple2.of("a", 100L), Tuple2.of("a", 200L), Tuple2.of("a", 200L),
  86. Tuple2.of("b", 100L), Tuple2.of("b", 200L), Tuple2.of("b", 200L),
  87. Tuple2.of("b", 500L), Tuple2.of("b", 600L), Tuple2.of("b", 700L));
  88.  
  89. tuple2DataStreamSource
  90. .keyBy(0)
  91. //超过100的阈值3次后输出报警信息
  92. .flatMap(new ThresholdWarning(100L, 3))
  93. .printToErr();
  94.  
  95. env.execute("Managed Keyed State");
  96. }
  97. }

  输出的结果如下,大于等于100的出现3次即进行输出。和我们想象的都一样。

  1. 1> (b 超过指定阈值数量,[100, 200, 200])
  2. 1> (b 超过指定阈值数量,[500, 600, 700])
  3. 3> (a 超过指定阈值数量,[400, 100, 200])
    • operator state

  我们还在原来基础的例子上调整一下,不按key,按Operator类型,只要超过时间的次数达到了就要输出。在其中,把Operator的hashCode进行输出一下,用于区分是否为相同的Operator。首先我们将并行度设置为1,然后一会儿再把并行度调整成2。

  代码的大致思路为:

  继承RichFlatMapFunction,实现CheckpointedFunction接口,即在触发检查点的时候进行操作。

  initializeState方法的时候将opertor的状态和检查点状态进行初始化。

  snapshotState方法即存储状态时将当时的镜像进行存储。可以存储到外部设备。

  flatMap的时候进行阈值判断和数据收集。

  main方法进行检查点设置,数据准备,执行和输出。

  1. package myflink.state;
  2.  
  3. import org.apache.flink.api.common.functions.RichFlatMapFunction;
  4. import org.apache.flink.api.common.state.ListState;
  5. import org.apache.flink.api.common.state.ListStateDescriptor;
  6. import org.apache.flink.api.common.typeinfo.TypeHint;
  7. import org.apache.flink.api.common.typeinfo.TypeInformation;
  8. import org.apache.flink.api.java.tuple.Tuple2;
  9. import org.apache.flink.runtime.state.FunctionInitializationContext;
  10. import org.apache.flink.runtime.state.FunctionSnapshotContext;
  11. import org.apache.flink.streaming.api.CheckpointingMode;
  12. import org.apache.flink.streaming.api.checkpoint.CheckpointedFunction;
  13. import org.apache.flink.streaming.api.datastream.DataStreamSource;
  14. import org.apache.flink.streaming.api.environment.CheckpointConfig;
  15. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
  16. import org.apache.flink.util.Collector;
  17.  
  18. import java.util.ArrayList;
  19. import java.util.List;
  20.  
  21. public class ThresholdOperatorWarning extends RichFlatMapFunction<Tuple2<String, Long>, Tuple2<String,
  22. List<Tuple2<String, Long>>>> implements CheckpointedFunction {
  23.  
  24. //非正确数据状态
  25. private List<Tuple2<String, Long>> bufferedData;
  26.  
  27. //检查点状态
  28. private transient ListState<Tuple2<String, Long>> checkPointedState;
  29.  
  30. //需要监控的阈值
  31. private Long threshold;
  32. //次数
  33. private Integer numberOfTimes;
  34.  
  35. ThresholdOperatorWarning(Long threshold, Integer numberOfTimes) {
  36. this.threshold = threshold;
  37. this.numberOfTimes = numberOfTimes;
  38. this.bufferedData = new ArrayList<>();
  39. }
  40.  
  41. @Override
  42. public void flatMap(Tuple2<String, Long> value, Collector<Tuple2<String, List<Tuple2<String, Long>>>> out)
  43. throws Exception {
  44. Long inputValue = value.f1;
  45.  
  46. //超过阈值则进行记录
  47. if(inputValue >= threshold) {
  48. bufferedData.add(value);
  49. }
  50.  
  51. //超过指定次数则进行汇总和汇总输出
  52. if(bufferedData.size() >= numberOfTimes) {
  53. //输出状态实例的hashCode
  54. out.collect(Tuple2.of(checkPointedState.hashCode() + "阈值报警! " , bufferedData ));
  55. //清理缓存
  56. bufferedData.clear();
  57. }
  58.  
  59. }
  60.  
  61. @Override
  62. public void snapshotState(FunctionSnapshotContext context) throws Exception {
  63. //当数据进行快照时,将数据存储到checkPointedState
  64. checkPointedState.clear();
  65. for (Tuple2<String, Long> element : bufferedData) {
  66. checkPointedState.add(element);
  67. }
  68. }
  69.  
  70. @Override
  71. public void initializeState(FunctionInitializationContext context) throws Exception {
  72. //这里获取的是operatorStateStore
  73. checkPointedState = context.getOperatorStateStore().getListState(new ListStateDescriptor<Tuple2<String, Long>>(
  74. "abnormalData", TypeInformation.of(new TypeHint<Tuple2<String, Long>>() {})
  75. ));
  76.  
  77. //如果发生重启,则需要从快照中将状态进行恢复
  78. if(context.isRestored()) {
  79. for (Tuple2<String, Long> element : checkPointedState.get()) {
  80. bufferedData.add(element);
  81. }
  82. }
  83. }
  84.  
  85. public static void main(String[] args) throws Exception {
  86. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
  87.  
  88. //开启检查点
  89. env.enableCheckpointing(1000L);
  90. // 其他可选配置如下:
  91.  
  92. // 设置语义,默认是EXACTLY_ONCE
  93. env.getCheckpointConfig().setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE);
  94. // 设置检查点之间最小停顿时间
  95. env.getCheckpointConfig().setMinPauseBetweenCheckpoints(500);
  96. // 设置执行Checkpoint操作时的超时时间
  97. env.getCheckpointConfig().setCheckpointTimeout(60000);
  98. // 设置最大并发执行的检查点的数量
  99. env.getCheckpointConfig().setMaxConcurrentCheckpoints(1);
  100. // 将检查点持久化到外部存储
  101. env.getCheckpointConfig().enableExternalizedCheckpoints(
  102. CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION);
  103.  
  104. //设置并行度为1
  105. env.setParallelism(1);
  106. //数据源
  107.  
  108. DataStreamSource<Tuple2<String, Long>> tuple2DataStreamSource = env.fromElements(
  109. Tuple2.of("a", 50L), Tuple2.of("a", 80L), Tuple2.of("a", 400L),
  110. Tuple2.of("a", 100L), Tuple2.of("a", 200L), Tuple2.of("a", 200L),
  111. Tuple2.of("b", 100L), Tuple2.of("b", 200L), Tuple2.of("b", 200L),
  112. Tuple2.of("b", 500L), Tuple2.of("b", 600L), Tuple2.of("b", 700L)
  113. );
  114.  
  115. tuple2DataStreamSource.flatMap(new ThresholdOperatorWarning(100L, 3))
  116. .printToErr();
  117.  
  118. env.execute("managed Operator State");
  119.  
  120. }
  121.  
  122. }

  当前并行度为1,结果如下,数据没有按key统计,而是按照里边的值进行统计,符合我们的要求。因为是同一个Operator,所以hashcode是一样的。

  1. (1629838640阈值报警! ,[(a,400), (a,100), (a,200)])
  2. (1629838640阈值报警! ,[(a,200), (b,100), (b,200)])
  3. (1629838640阈值报警! ,[(b,200), (b,500), (b,600)])

  接下来将并行度设置为2,结果如下。我们看一下main里边的数据,符合大于等于100的数据一共有10个,那么两个不同的operator分配的时候这10数据的时候,一个operator分5个,那么满足超过3个的时候才收集并输出。因为5个里边只有一组3个满足,2个不满足所以不会输出,所以符合我们的预期。

  1. 1> (475161679阈值报警! ,[(a,100), (a,200), (b,200)])
  2. 2> (1633355453阈值报警! ,[(a,400), (a,200), (b,100)])
  • 检查点的机制和配置
    • 检查点的机制

      上边我们程序里边设置了检查点,检查点是当数据进行处理的时候将数据的状态进行记录,当程序出现问题的时候方便恢复。

     可以像这样的情况:  数据源——>  123456789|12345678| 12341234|——>sink。|即检查点,是一个checkpoint barrier,当算子运行计算的时候会把当前的状态进行记录,比如读取Kafka的数据,假如读取到offset=6868,然后将这个值进行了记录, 当这时有机器出现了问题,程序需要进行恢复并执行,那么需要重新读取这条数据再计算。引用一张图片可以有更清楚的认识。

  

    • 检查点的配置

      默认情况下,检查点是关闭着的,我们需要明确开启。其他的一些配置可参考如下内容:

  1.     //开启检查点
  2. env.enableCheckpointing(1000L);
  3. // 其他可选配置如下:
  4.  
  5. // 设置语义,默认是EXACTLY_ONCE
  6. env.getCheckpointConfig().setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE);
  7. // 设置检查点之间最小停顿时间
  8. env.getCheckpointConfig().setMinPauseBetweenCheckpoints(500);
  9. // 设置执行Checkpoint操作时的超时时间
  10. env.getCheckpointConfig().setCheckpointTimeout(60000);
  11. // 设置最大并发执行的检查点的数量
  12. env.getCheckpointConfig().setMaxConcurrentCheckpoints(1);
  13. // 将检查点持久化到外部存储
  14. env.getCheckpointConfig().enableExternalizedCheckpoints(
  15. CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION);
    • 检查点手工保存

       flink支持手工将检查点的状态存储到外部,也可以指定存储到HDFS文件。存储到外边是为了程序出现了问题时进行恢复,比如OOM问题。程序升级和重启时也需要重新从检查点进行恢复。

  1. # 触发指定id的作业的Savepoint,并将结果存储到指定目录下
  2. bin/flink savepoint :jobId [:targetDirectory]
  •  状态的存储

    Keyed State和Operator State会存储在内存中,因为数据是持续不断的输入的,当数据量非常大的时候,内存会出现不足的情况,那么我们也是需要将当前的状态进行保存的。官方称为状态后端。

    • Flink的状态保存支持3种方式

      MemoryStateBackend,这种方式是将数据存储在JVM中,这种方式是用于开发。

      FsStateBackend, 即以文件的形式存储到磁盘中,可以是HDFS或本地文件。当JobManger把任务发送给Taskmanger进行计算,此时数据会在JVM中,当触发了checkpoint后才会将数据存储到文件中。

      RocksDBStateBackend,这种形式是介于前边两种的情况,这个是将状态数据到KV数据库中,当触发状态的时候会将数据再持久化到文件中。这样即提高了速度,空间也变得更大了。

    • 状态存储配置

      默认情况是MemoryStateBackend,即内存中。

      剩下两种的配置如下,这种方式只对当前Job有效。RocksDB配置的话需要额外引用一下包。

  1. // 配置 FsStateBackend
  2. env.setStateBackend(new FsStateBackend("hdfs://namenode:60060/flink/checkpoints"));
  3. // 配置 RocksDBStateBackend
  4. env.setStateBackend(new RocksDBStateBackend("hdfs://namenode:60060/flink/checkpoints"))

      通过修改flink-yaml.conf可以对该集群所有作业生效。

  1. state.backend: filesystem
  2. state.checkpoints.dir: hdfs://namenode:60060/flink/checkpoints

     

MemoryStateBackend

Flink系列之状态及检查点的更多相关文章

  1. Flink架构(五)- 检查点,保存点,与状态恢复

    检查点,保存点,与状态恢复 Flink是一个分布式数据处理系统,这种场景下,它需要处理各种异常,例如进程终止.机器故障.网络中断等.因为tasks在本地维护它们的state,Flink必须确保在出现故 ...

  2. Flink系列(0)——准备篇(流处理基础)

    Apache Flink is a framework and distributed processing engine for stateful computations over unbound ...

  3. flink系列-10、flink保证数据的一致性

    本文摘自书籍<Flink基础教程> 一.一致性的三种级别 当在分布式系统中引入状态时,自然也引入了一致性问题.一致性实际上是“正确性级别”的另一种说法,即在成功处理故障并恢复之后得到的结果 ...

  4. Flink中的状态与容错

    1.概述 Flink支持有状态计算,根据支持得不同状态类型,分别有Keyed State和Operator State.针对状态数据得持久化,Flink提供了Checkpoint机制处理:针对状态数据 ...

  5. 微软BI 之SSIS 系列 - 通过设置 CheckPoints 检查点来增强 SSIS Package 流程的重用性

    开篇介绍 通常一个 ETL Package 是由多个控制流和数据流共同组成,有的时候 ETL 的步骤可能会比较多,整个流程执行下来的时间可能比较长.假设在 ETL Package 中包含5个Task, ...

  6. [js高手之路] html5 canvas系列教程 - 状态详解(save与restore)

    本文内容与路径([js高手之路] html5 canvas系列教程 - 开始路径beginPath与关闭路径closePath详解)是canvas中比较重要的概念.掌握理解他们是做出复杂canvas动 ...

  7. Flink系列之流式

    本文仅是自己看书.学习过程中的个人总结,刚接触流式,视野面比较窄,不喜勿喷,欢迎评论交流. 1.为什么是流式? 为什么是流式而不是流式系统这样的词语?流式系统在我的印象中是相对批处理系统而言的,用来处 ...

  8. Flink State Backends (状态后端)

    State Backends 的作用 有状态的流计算是Flink的一大特点,状态本质上是数据,数据是需要维护的,例如数据库就是维护数据的一种解决方案.State Backends 的作用就是用来维护S ...

  9. Apache Flink系列-④有状态函数

    有状态函数:独立于平台的有状态无服务器堆栈   这是一种在现代基础设施上创建高效.可扩展且一致的应用程序的简单方法,无论规模大小.   有状态函数是一种API,它通过为无服务器架构构建的运行时简化了分 ...

随机推荐

  1. python3下scrapy爬虫(第十三卷:scrapy+scrapy_redis+scrapyd打造分布式爬虫之配置)

    之前我们的爬虫都是单机爬取,也是单机维护REQUEST队列, 看一下单机的流程图: 一台主机控制一个队列,现在我要把它放在多机执行,会产生一个事情就是做重复的爬取,毫无意义,所以分布式爬虫的第一个难点 ...

  2. 101)PHP,多文件上传

    就是在之前的单文件上传的基础上加了一个函数: <?php /** * 上传函数 * @param $tmp_file $_FILES的五个信息,比如upload($_FILES('mingzi' ...

  3. IIC通信控制的AD5259------在调试过程中遇到的奇葩问题

    首先说一下的遇到的问题: 1.AD5259按照SCL是100KHz的情况下,可以正常接收上位机的数据,但是一段时间后,就不能正确的按照时序来走了 原因在于AD5259在接收到上位机的数据后需要一定的响 ...

  4. ionic2踩坑之ionic resources失败

    网上关于ionic2怎么修改应用图标和启动画面资料也挺多的.不过大家执行ionic resources的时候不少人都执行失败了,关于执行失败的原因网上很少.下面分享一下我的经验吧. 1.看自己的项目下 ...

  5. geoserver整合swagger2支持自动生成API文档

    网上各种博客都有关于swagger2集成到springmvc.springboot框架的说明,但作者在整合到geoserver中确碰到了问题,调试一番最后才解决,遂总结一下. swagger2集成只需 ...

  6. Android ListView 常用技巧总结

    本文对 ListView 中的一些常用技巧做一个总结.附:虽然现在 RecyclerView 已逐渐取代 ListView,但实际情况是大部分项目中还在使用 ListView.当然,后续我会在我的博客 ...

  7. 吴裕雄--天生自然HTML学习笔记:启动TOMCAT服务器时出现乱码解决方法

  8. idea快捷键-eclipse

    ctrl+shift+R 查找文件ctrl+shift+T 查找class类alt+Enter 导包alt+Shift+P 实现方法

  9. 在腾讯云centos7.2上安装配置Node.js记录

    应为爱好前端所以打算在腾讯云服务器上安装JavaScript引擎Node.js,下面是安装步骤: 安装准备: 下载node.js的.tar.xz安装包:https://nodejs.org/dist/ ...

  10. 吴裕雄--天生自然KITTEN编程:拾金币