背景 字节跳动开发套件数据集成团队(DTS ,Data Transmission Service)在字节跳动内基于 Flink 实现了流批一体的数据集成服务.其中一个典型场景是 Kafka/ByteMQ/RocketMQ -> HDFS/Hive .Kafka/ByteMQ/RocketMQ -> HDFS/Hive(下面均称之为 MQ dump,具体介绍可见 字节跳动基于Flink的MQ-Hive实时数据集成 ) 在数仓建设第一层,对数据的准确性和实时性要求比较高.​ 目前字节跳动中国区 M…
1.Flink中exactly once实现原理分析 生产者从kafka拉取数据以及消费者往kafka写数据都需要保证exactly once.目前flink中支持exactly once的source不多,有kafka source:能实现exactly once的sink也不多,如kafka sink.streamingFileSink,其都要开启checkpoint才能实现exactly once.接下来以FlinkKafkaProducer为例,深入研究其源代码,从而理解flink中的e…
一.前言 根据维基百科的定义,两阶段提交(Two-phase Commit,简称2PC)是巨人们用来解决分布式系统架构下的所有节点在进行事务提交时保持一致性问题而设计的一种算法,也可称之为协议. 在Flink 1.4版本中,社区将两阶段提交协议中的公共逻辑进行提取和封装,发布了可供用户自定义实现特定方法来达到flink EOS特点的TwoPhaseCommitSinkFunction.本文基于Flink 1.12.4,和大家一起拜读Flink两阶段提交的源码. 二.2PC简介 1. 定义 根据维…
引言:分布式事务是分布式数据库的基础性功能,在2017年上海MySQL嘉年华(IMG)和中国数据库大会(DTCC2018)中作者都对银联UPSQL Proxy的分布式事务做了简要介绍,受限于交流形式难以做全面细致的探讨,借由本文进一步展开. UP-2PC是面向分布式数据库的由中国银联自主研发的针对MySQL的2PC分布式事务实现,以UPSQL Proxy(分布式式数据库代理)作为事务管理器,UPSQL(MySQL银联定制版本)为资源管理器. 由于MySQL在5.7中彻底解决了xa prepare…
Spark剖析-宽依赖与窄依赖.基于yarn的两种提交模式.sparkcontext原理剖析 一.宽依赖与窄依赖 二.基于yarn的两种提交模式深度剖析 2.1 Standalne-client 2.2 Standalone-cluster 三.sparkcontext原理剖析 一.宽依赖与窄依赖 二.基于yarn的两种提交模式深度剖析 Spark的三种提交模式: Spark内核架构中,其实就是第一种模式,standalone模式,基于Spark自己的Master-Worker集群. 第二种,基…
基于字节跳动分布式治理的理念,数据平台数据治理团队自研了SLA保障平台,目前已在字节内部得到广泛使用,并支持了绝大部分数据团队的SLA治理需求,每天保障的SLA链路数量过千,解决了数据SLA难对齐.难保障.难管理的问题. 背景介绍 SLA(Service Level Agreement):服务级别协议,对互联网公司来说是网站服务可用性的保证.数据SLA,即数据可用性保证,一般以数据产出时间作为SLA. 在海量数据任务开发场景中,因业务多样化.数据量大.数据任务复杂等问题,导致数据任务链路依赖复杂…
在上一集的讨论里我们介绍并实现了强类型返回结果行.使用强类型主要的目的是当我们把后端数据库SQL批次操作搬到内存里转变成数据流式按行操作时能更方便.准确.高效地选定数据字段.在上集讨论示范里我们用集合的foreach方式模拟了一个最简单的数据流,并把从数据库里批次读取的数据集转换成一串连续的数据行来逐行使用.一般来说完整的流式数据处理流程包括了从数据库中读取数据.根据读取的每行数据状态再对后台数据库进行更新,包括:插入新数据.更新.删除等.那么在上篇中实现的流式操作基础上再添加一种指令行类型就可…
http://www.cnblogs.com/panfeng412/archive/2012/07/29/storm-stream-model-analysis-and-discussion.html http://www.baidu.com/link?url=Qm-gkOu7f148O181TS0GMoUQkytD45sIRw5cehjNefXNHt2yGZljGQ3Z2Ci-ufG1goUBonh7rlPN6igdTYoTOq&wd=kafka%20storm&ie=utf-8&…
https://mp.weixin.qq.com/s?__biz=MjM5NjQ5MTI5OA==&mid=2651749037&idx=1&sn=4a448647b3dae50779bc9ec0e9c10275&chksm=bd12a3e08a652af6ed8b305b0523716e08a81cf99296425cdaf2bbee1e9d8a6aca06c81cdcc1&scene=21#wechat_redirect 总第291篇 2018年 第83篇 引言…
一.spark的三种提交模式 1.第一种,Spark内核架构,即standalone模式,基于Spark自己的Master-Worker集群. 2.第二种,基于YARN的yarn-cluster模式. 3.第三种,基于YARN的yarn-client模式. 如果,你要切换到第二种和第三种模式,在提交spark应用程序的spark-submit脚本加上--master参数,设置为yarn-cluster,或yarn-client,即可.如果没设置,那么,就是standalone模式. 一.基于YA…