作者:吴云涛,腾讯 CSIG 高级工程师导语 | 最近梳理了一下如何用 Flink 来实现实时的 UV.PV 指标的统计,并和公司内微视部门的同事交流.然后针对该场景做了简化,并发现使用 Flink SQL 来 实现这些指标的统计会更加便捷. 一 解决方案描述 1.1 概述 本方案结合本地自建 Kafka 集群.腾讯云流计算 Oceanus(Flink).云数据库 Redis 对博客.购物等网站 UV.PV 指标进行实时可视化分析.分析指标包含网站的独立访客数量(UV ).产品的点击量(PV).…
前言 在上一篇文章 你公司到底需不需要引入实时计算引擎? 中我讲解了日常中常见的实时需求,然后分析了这些需求的实现方式,接着对比了实时计算和离线计算.随着这些年大数据的飞速发展,也出现了不少计算的框架(Hadoop.Storm.Spark.Flink).在网上有人将大数据计算引擎的发展分为四个阶段. 第一代:Hadoop 承载的 MapReduce 第二代:支持 DAG(有向无环图)框架的计算引擎 Tez 和 Oozie,主要还是批处理任务 第三代:支持 Job 内部的 DAG(有向无环图),以…
我打算以 flink 官方的 例子 <<Monitoring the Wikipedia Edit Stream>> 作为示例,进行 flink 流计算任务 的源码解析说明. 其中任务的源码如下,其中中文注释 来自 http://flink-china.org/ 后续我会对这个拓扑任务代码进行逐行的深入分析,以达到深入了解flink代码运行机制的目的. public class WikipediaAnalysis { public static void main(String[]…
一.背景说明 在Flink中对流数据进行去重计算是常有操作,如流量域对独立访客之类的统计,去重思路一般有三个: 基于Hashset来实现去重 数据存在内存,容量小,服务重启会丢失. 使用状态编程ValueState/MapState实现去重 常用方式,可以使用内存/文件系统/RocksDB作为状态后端存储. 结合Redis使用布隆过滤器实现去重 适用对上亿数据量进行去重实现,占用资源少效率高,有小概率误判. 这里以自定义布隆过滤器的方式,实现Flink窗口计算中独立访客的统计,数据集样例如下:…
首先 是 StreamExecutionEnvironment see = StreamExecutionEnvironment.getExecutionEnvironment(); 我们在编写 flink流计算拓扑任务时首先要做的就是构建一个 StreamExecutionEnvironment 实例 其时序图如下:     文章未完结,待续...…
系列随笔: (总览)基于商品属性的相似商品推荐算法 (一)基于商品属性的相似商品推荐算法--整体框架及处理流程 (二)基于商品属性的相似商品推荐算法--Flink SQL实时计算实现商品的隐式评分 (三)基于商品属性的相似商品推荐算法--批量处理商品属性,得到属性前缀及完整属性字符串 (四)基于商品属性的相似商品推荐算法--推荐与评分高的商品属性相似的商品 (五)基于商品属性的相似商品推荐算法--算法调优及其他 2020.04.15  补充:协同过滤推荐算法.pptx 提取码:4tds 注:如果…
原文链接:https://yq.aliyun.com/articles/58382 摘要: 流计算,已经有Storm.Spark,Samza,包括最近新起的Flink,Kafka为什么再自己做一套流计算呢?Kafka Stream 与这些框架比有什么优势?Samza.Consumer Group已经包装了Kafka轻量级的消费功能,难道不够吗? Confluent Inc(原LinkedIn Kafka作者离职后创业公司)在6月份预告推出Kafka Stream,Kafka Stream会在Ka…
随着业务的发展,数据量剧增,我们一些简单报表大盘类的任务,就不能简单的依赖于RDBMS了,而是依赖于数仓之类的大数据平台. 数仓有着巨量数据的存储能力,但是一般都存在一定数据延迟,所以要想完全依赖数数仓来解决实时报表问题,是困难的. 其实,所谓的实时报表,往简单了说就是: 对现在的一些数据进行加减乘除聚合后,得到的一串与时间相关的数字. 所以,这类问题的关键点应该在于这个实时数据怎么来,以及怎么处理这些实时数据. 一般地,做这类报表类工作,最基本的原则就是: 业务无侵入性,然后又要做到实时. 所…
Spark Streaming VS Structured Streaming Spark Streaming是Spark最初的流处理框架,使用了微批的形式来进行流处理. 提供了基于RDDs的Dstream API,每个时间间隔内的数据为一个RDD,源源不断对RDD进行处理来实现流计算 Apache Spark 在 2016 年的时候启动了 Structured Streaming 项目,一个基于 Spark SQL 的全新流计算引擎 Structured Streaming,让用户像编写批处理…
@ 目录 概述 定义 为什么使用Flink 应用行业和场景 应用行业 应用场景 实时数仓演变 Flink VS Spark 架构 系统架构 术语 无界和有界数据 流式分析基础 分层API 运行模式 作业提交流程 顶层抽象流程 基于Yarn 会话(Session)模式 概述 定义 Apache Flink 官网 https://flink.apache.org/ Apache Flink GitHub地址 https://github.com/apache/flink Apache Flink 官…