Flink资料(7) -- 背压监控】的更多相关文章

背压(backpressure)监控 本文翻译自Back Pressure Monitoring --------------------------------------------------- Flink的web接口提供了监控运行job的背压行为的功能 一.背压(back pressure) 如果你看到了一个任务的back pressure警告(如过高),则意味着该任务产生数据的速度要高于下游Operator消化的速度.数据沿着job的数据流图向下游流动(如从source到sink),而…
反压在流式系统中是一种非常重要的机制,主要作用是当系统中下游算子的处理速度下降,导致数据处理速率低于数据接入的速率时,通过反向背压的方式让数据接入的速率下降,从而避免大量数据积压在flink系统中,最后系统无法正常运行.flink具有天然的反压机制,不需要通过额外的配置就能够完成反压处理. 当在flinkUI中切换到Backpressure页签时,flink才会对整个job触发反压数据的采集,反压过程对系统有一定的影响,主要因为jvm进程采样成本较高.flink通过在TaskManager中采样…
流式计算中处理延迟是一个非常重要的监控metric flink中通过开启配置   metrics.latency.interval  来开启latency后就可以在metric中看到askManagerJobMetricGroup/operator_id/operator_subtask_index/latency指标了 如果每一条数据都打上时间监控 输出时间- 输入时间,会大量的消耗性能 来看一下flink自带的延迟监控是怎么做的 其实也可以想到原理很简单,就是在source周期性的插入一条特…
flink web页面中提供了针对Job Checkpoint相关的监控信息.Checkpoint监控页面共有overview.history.summary和configuration四个页签,分别对Checkpoint从不同的角度进行了监控,每个页面中都包含了与Checkpointing相关的指标. 一.overview overview页签中宏观地记录了flink应用中Checkpoint的数量以及Checkpoint的最新记录,包括失败和完成的Checkpoint记录. overview…
本文翻译自Contributing Code ----------------------------------------- Apache Flink是由自愿的代码贡献者维护.优化及扩展的.Apache Flink社区鼓励任何人贡献源代码.为了使得代码贡献者及复查者之便利,以及保存高质量的代码基础,我们遵循着一个贡献代码的过程,该过程将在本文档中详细描述. 本文包括有关向Flink贡献代码所需知晓的所有事宜,描述了从前期准备,测试以及代码提交的过程,同时解释了代码编写的准则以及Flink基础…
该文档翻译自Jobs and Scheduling ----------------------------------------------- 该文档简单描述了Flink是如何调度Job的,以及如何在JobManager上表现并跟踪Job状态. 一.调度 Flink通过任务槽(Task Slot)定义执行资源.每个TaskManager都有一或多个任务槽,每个任务槽都可以运行一个流水线并行任务.一个流水线包括多个连续的任务,如一个MapFunction的第n个并行实例与一个ReduceFun…
类型抽取和序列化 本文翻译自Type Extraction and Serialization Flink处理类型的方式比较特殊,包括它自己的类型描述,一般类型抽取和类型序列化框架.该文档描述这些概念并解释其机理. Java API和Scala API处理类型信息的方式有根本性的区别,所以本文描述的问题仅与其中一种API相关 一.Flink中对类型的处理 一般处理类型时,我们并不干涉,而是让编程语言和序列化框架来自动处理类型.与之相反的,Flink想要尽可能掌握进出用户函数的数据类型的信息. 1…
Flink一般架构和处理模型 本文翻译自General Architecture and Process Model --------------------------------------------------------------------- 一.处理过程 当Flink系统启动时,首先启动JobManager和一至多个TaskManager.JobManager负责协调Flink系统,TaskManager则是执行并行程序的worker.当系统以本地形式启动时,一个JobManag…
数据流容错机制 该文档翻译自Data Streaming Fault Tolerance,文档描述flink在流式数据流图上的容错机制. ------------------------------------------------------------------------------------------------- 一.介绍 flink提供了可以一致地恢复数据流应用的状态的容错机制,该机制保证即使在错误发生后,反射回数据流记录的程序的状态操作最终仅执行一次.值得注意的是,该保证可…
Flink基础概念 本文描述Flink的基础概念,翻译自https://ci.apache.org/projects/flink/flink-docs-release-1.0/concepts/concepts.html 一.程序(Progrram)和数据流(Dataflows) Flink程序的构建基础为Streams和Transformations.其中Streams为中间结果,而Transformations是将一到多个Streams作为输入,计算产生一到多个Streams作为输出的操作(…