本章节内容:

一、在线动态计算分类最热门商品案例回顾

二、基于案例贯通Spark Streaming的运行源码

先看代码(源码场景:用户、用户的商品、商品的点击量排名,按商品、其点击量排名前三):

package com.dt.spark.sparkstreaming

import org.apache.spark.SparkConf

import org.apache.spark.sql.Row

import org.apache.spark.sql.hive.HiveContext

import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType}

import org.apache.spark.streaming.{Seconds, StreamingContext}

/**

* 使用Spark Streaming+Spark SQL来在线动态计算电商中不同类别中最热门的商品排名,例如手机这个类别下面最热门的三种手机、电视这个类别

* 下最热门的三种电视,该实例在实际生产环境下具有非常重大的意义;

* @author DT大数据梦工厂

* 新浪微博:http://weibo.com/ilovepains/

*   实现技术:Spark Streaming+Spark SQL,之所以Spark Streaming能够使用ML、sql、graphx等功能是因为有foreachRDD和Transform

* 等接口,这些接口中其实是基于RDD进行操作,所以以RDD为基石,就可以直接使用Spark其它所有的功能,就像直接调用API一样简单。

*  假设说这里的数据的格式:user item category,例如Rocky Samsung Android

*/

object OnlineTheTop3ItemForEachCategory2DB {

def main(args: Array[String]){

/**

* 第1步:创建Spark的配置对象SparkConf,设置Spark程序的运行时的配置信息,

* 例如说通过setMaster来设置程序要链接的Spark集群的Master的URL,如果设置

* 为local,则代表Spark程序在本地运行,特别适合于机器配置条件非常差(例如

* 只有1G的内存)的初学者

*/

val conf = new SparkConf() //创建SparkConf对象

conf.setAppName("OnlineTheTop3ItemForEachCategory2DB") //设置应用程序的名称,在程序运行的监控界面可以看到名称

  //conf.setMaster("spark://Master:7077") //此时,程序在Spark集群

conf.setMaster("local[6]")

//设置batchDuration时间间隔来控制Job生成的频率并且创建Spark Streaming执行的入口

val ssc = new StreamingContext(conf, Seconds(5))

ssc.checkpoint("/root/Documents/SparkApps/checkpoint")

val userClickLogsDStream = ssc.socketTextStream("Master", 9999)

val formattedUserClickLogsDStream = userClickLogsDStream.map(clickLog =>

(clickLog.split(" ")(2) + "_" + clickLog.split(" ")(1), 1))

val categoryUserClickLogsDStream =

//窗口的总长度是60秒,每隔20秒滑动一次,应该在过去60秒的总长度加上新的20秒,在新的结果基础上减去20秒

formattedUserClickLogsDStream.reduceByKeyAndWindow(_+_,_-_, Seconds(60), Seconds(20))

categoryUserClickLogsDStream.foreachRDD { rdd => {

if (rdd.isEmpty()) {//判断RDD是否为空

println("No data inputted!!!")

} else {

val categoryItemRow = rdd.map(reducedItem => {

val category = reducedItem._1.split("_")(0)

val item = reducedItem._1.split("_")(1)

val click_count = reducedItem._2

Row(category, item, click_count)

})

val structType = StructType(Array(

StructField("category", StringType, true),

StructField("item", StringType, true),

StructField("click_count", IntegerType, true)

))

//生产环境下注意用hiveContext,其继承了SparkContext所有功能

val hiveContext = new HiveContext(rdd.context)

val categoryItemDF = hiveContext.createDataFrame(categoryItemRow, structType)

categoryItemDF.registerTempTable("categoryItemTable")

val reseltDataFram = hiveContext.sql("SELECT category,item,click_count FROM (SELECT category,item,click_count,row_number()" +

" OVER (PARTITION BY category ORDER BY click_count DESC) rank FROM categoryItemTable) subquery " +

" WHERE rank <= 3")

reseltDataFram.show()

val resultRowRDD = reseltDataFram.rdd

resultRowRDD.foreachPartition { partitionOfRecords => {

if (partitionOfRecords.isEmpty){

println("This RDD is not null but partition is null")

} else {

val connection = ConnectionPool.getConnection()  // ConnectionPool is a static, lazily initialized pool of connections

partitionOfRecords.foreach(record => {

val sql = "insert into categorytop3(category,item,client_count) values('" + record.getAs("category") + "','" +

record.getAs("item") + "'," + record.getAs("click_count") + ")"

val stmt = connection.createStatement();

stmt.executeUpdate(sql);

})

ConnectionPool.returnConnection(connection) // return to the pool for future reuse

}

}

}

}

}

}

/**

* 在StreamingContext调用start方法的内部其实是会启动JobScheduler的Start方法,进行消息循环,在JobScheduler

* 的start内部会构造JobGenerator和ReceiverTacker,并且调用JobGenerator和ReceiverTacker的start方法:

*   1,JobGenerator启动后会不断的根据batchDuration生成一个个的Job

*   2,ReceiverTracker启动后首先在Spark Cluster中启动Receiver(其实是在Executor中先启动ReceiverSupervisor),在Receiver收到

*   数据后会通过ReceiverSupervisor存储到Executor并且把数据的Metadata信息发送给Driver中的ReceiverTracker,在ReceiverTracker

*   内部会通过ReceivedBlockTracker来管理接受到的元数据信息

* 每个BatchInterval会产生一个具体的Job,其实这里的Job不是Spark Core中所指的Job,它只是基于DStreamGraph而生成的RDD

* 的DAG而已,从Java角度讲,相当于Runnable接口实例,此时要想运行Job需要提交给JobScheduler,在JobScheduler中通过线程池的方式找到一个

* 单独的线程来提交Job到集群运行(其实是在线程中基于RDD的Action触发真正的作业的运行),为什么使用线程池呢?

*   1,作业不断生成,所以为了提升效率,我们需要线程池;这和在Executor中通过线程池执行Task有异曲同工之妙;

*   2,有可能设置了Job的FAIR公平调度的方式,这个时候也需要多线程的支持;

*/

ssc.start()

ssc.awaitTermination()

}

}

演示源代码效果

启动Hive服务:

启动应用程序:

webui控制台监控运行情况:

如果报错的话是数据源没有链接上,需要启动nc –lk 9999即可:

查看运行结果:

以local模式运行的话刷新local的History-server webui界面:

Local的模式,所有任务都在driver上运行:

使用了reduceByKeyAndWindow窗口滑动操作,需要对窗口输出结果聚合:

源码分析

  1. 创建sparkConf的配置。
  2. 创建实例StreamingContext

进入StreamingContext内部构造函数需要传入master、appname、batchDuration等参数;关键点createNewSparkContext对象,这说明StreamingContext构建是通过再其内部会构建SparkContext,通过sparkConf构建SparkConcoxt,进一步说明SparkStreaming是SparkCore上的一个应用程序。用户编写SparkStreaming应用程序在StreamingContext内部会构建SparkConcoxt。

看下val userClickLogsDStream = ssc.socketTextStream("Master", 9999)源码,创建一个DStream输入流即socketinputDSteam:

有了DStream后可以基于Receiver接收数据,Receiver内部的onStart方法开启run线程来调用Receiver方法连接上socket:

在Receiver方法中new Socket对象,并根据应用程序业务代码指定的host、port进行接收inputStream输入数据,将接收到的数据不断一条一条循环进行Store:

再看业务逻辑代码的一系列transformation,从SparkStreaming框架角度来讲不是很重要,因为这些代码是你自己的业务逻辑,不是框架代码,在研究源码时暂时放在一边:

接下来很重要的一步就是SparkStreaming的start方法,看下这个方法的描述:

/**

* 在StreamingContext调用start方法的内部其实是会启动JobScheduler的Start方法,进行消息循环,在JobScheduler

* 的start内部会构造JobGenerator和ReceiverTacker,并且调用JobGenerator和ReceiverTacker的start方法:

*   1,JobGenerator启动后会不断的根据batchDuration生成一个个的Job

*   2,ReceiverTracker启动后首先在Spark Cluster中启动Receiver(其实是在Executor中先启动ReceiverSupervisor,然后通过ReceiverSupervisor启动Receiver),在Receiver收到

*   数据后会通过ReceiverSupervisor存储到Executor并且把数据的Metadata信息发送给Driver中的ReceiverTracker,在ReceiverTracker

*   内部会通过ReceivedBlockTracker来管理接受到的元数据信息

* 每个BatchInterval会产生一个具体的Job,其实这里的Job不是Spark Core中所指的Job,它只是基于DStreamGraph而生成的RDD

* 的DAG而已,从Java角度讲,相当于Runnable接口实例,此时要想运行Job需要提交给JobScheduler,在JobScheduler中通过线程池的方式找到一个

* 单独的线程来提交Job到集群运行(其实是在线程中基于RDD的Action触发真正的作业的运行),为什么使用线程池呢?

*   1,作业不断生成,所以为了提升效率,我们需要线程池;这和在Executor中通过线程池执行Task有异曲同工之妙;

*   2,有可能设置了Job的FAIR公平调度的方式,这个时候也需要多线程的支持;

*/

我们再深入看看InputDStream源码,业务代码通过StreamingContext对象的socketTextStream方法创建了SocketStream对象:

通过SocketStream对象创建了SocketInputDStream对象,返回的是ReceiverInputDStream类型:

进入ReceiverInputDStream抽象类,其继承了InputDStream类:

在进入InputDStream抽象类,其继续继承了DStream(其实就是RDD的模板):

进入DStream抽象类,其只是在RDD的基础上进行简单的封装,就是RDD的模板而已,DStream有以下特征:

  1. DStream依赖其他的DStreams
  2. 依赖DStream模板构建出RDD之间的依赖
  3. 基于DStream它会有一个function,function被用来基于batchDuration或batchIntval时间片生成RDD,这个和定时器有关系
  4. DStream是RDD的模板,DStream上的很多操作转过来其实是对RDD的操作

看下DStream的继承结构如下(刚才我们看到的InputDStream也在继承的里面):

InputDStream注释:所有DStream的子类,其提供start和stop方法,当SparkStreaming系统启动和停止接收数据的时候会被调用,刚才看到具体子类SocketTextStream里面具体的start和stop方法提供其回调:

InputDStream对应的子类的start和stop方法被ReceiverSupervisor的start和stop方法回调。

继续看ReceiverInputDStream类的子类,其中有SocketInputDStream类,此类只实现了getReceiver方法:

在看看DStream整个继承结构中,发现有一个ForeachDStream类,在ForeachDStream中会产生作业,里面新建了一个job,DStream级别的action操作都会有foreachDStream的产生,会被的generatorJob调用,当然新建的job会产生基于function操作,实际上是你自己写的业务逻辑function:

ForeachDStream类中关键代码generatorRDD根据时间间隔(batchInterval或batchDuration)生成相应的RDD和RDD的操作,我们对DStream的操作反过来作用于RDD的操作,DStream的本质就是按照时间的序列存储的一系列数据流,因为RDD中存储的就是batchDuration时间片的数据:

如果要扩展SparkStreaming源码,注意和SparkStreaming包名一致才可以访问其源码。

继续看代码,看到getOrCompute方法,因为其作用于DStream,这个方法很关键,根据指定的时间获得RDD,如果缓存中有的话可根据指定时间从缓存中获取数据:

DStream类的getOrCompute的操作是生成RDD,其实DStream是rdd的模板,对DStream的getOrCompute操作实际上触发运行generatorRDDs,并将生成的RDD放在HashMap中:

所以通过socketTextStream代码,最终获得输入流socketInputDStream的Receiver 在集群上抓取数据:

通过socketReceiver从网络上获取流数据,这样就将网络上的离散流数据以HashMap的方式存储起来了:

源码说的非常清楚:

  假如说一万年的话每秒一个单位,这就是离散流,用每秒对一万年进行切分,切成一片一片,切开后就叫离散,离散之间没什么关系。

SparkStreaming整体架构图初见:

Spark发行版笔记5

新浪微博:http://weibo.com/ilovepains

微信公众号:DT_Spark

博客:http://blog.sina.com.cn/ilovepains

手机:18610086859

QQ:1740415547

邮箱:18610086859@vip.126.com

贯通Spark Streaming流计算框架的运行源码的更多相关文章

  1. Dream_Spark-----Spark 定制版:005~贯通Spark Streaming流计算框架的运行源码

    Spark 定制版:005~贯通Spark Streaming流计算框架的运行源码   本讲内容: a. 在线动态计算分类最热门商品案例回顾与演示 b. 基于案例贯通Spark Streaming的运 ...

  2. 基于案例贯通 Spark Streaming 流计算框架的运行源码

    本期内容 : Spark Streaming+Spark SQL案例展示 基于案例贯穿Spark Streaming的运行源码 一. 案例代码阐述 : 在线动态计算电商中不同类别中最热门的商品排名,例 ...

  3. 5.Spark Streaming流计算框架的运行流程源码分析2

    1 spark streaming 程序代码实例 代码如下: object OnlineTheTop3ItemForEachCategory2DB { def main(args: Array[Str ...

  4. Spark Streaming实时计算框架介绍

    随着大数据的发展,人们对大数据的处理要求也越来越高,原有的批处理框架MapReduce适合离线计算,却无法满足实时性要求较高的业务,如实时推荐.用户行为分析等. Spark Streaming是建立在 ...

  5. 大数据开发实战:Spark Streaming流计算开发

    1.背景介绍 Storm以及离线数据平台的MapReduce和Hive构成了Hadoop生态对实时和离线数据处理的一套完整处理解决方案.除了此套解决方案之外,还有一种非常流行的而且完整的离线和 实时数 ...

  6. Spark Streaming updateStateByKey案例实战和内幕源码解密

    本节课程主要分二个部分: 一.Spark Streaming updateStateByKey案例实战二.Spark Streaming updateStateByKey源码解密 第一部分: upda ...

  7. 66、Spark Streaming:数据处理原理剖析与源码分析(block与batch关系透彻解析)

    一.数据处理原理剖析 每隔我们设置的batch interval 的time,就去找ReceiverTracker,将其中的,从上次划分batch的时间,到目前为止的这个batch interval ...

  8. spark streaming 接收kafka消息之四 -- 运行在 worker 上的 receiver

    使用分布式receiver来获取数据使用 WAL 来实现 exactly-once 操作: conf.set("spark.streaming.receiver.writeAheadLog. ...

  9. 【Streaming】30分钟概览Spark Streaming 实时计算

    本文主要介绍四个问题: 什么是Spark Streaming实时计算? Spark实时计算原理流程是什么? Spark 2.X下一代实时计算框架Structured Streaming Spark S ...

随机推荐

  1. Linux 邮件服务器 之跟我一步一步来实现一个邮件系统【转】

    转自:http://tchuairen.blog.51cto.com/3848118/1686875/ 原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 .作者信息和本声明.否则将追究法 ...

  2. linux下面某些常用命令的用法【转】

    转自:http://blog.csdn.net/luo3532869/article/details/7584290 ls 命令用于常看目录,用法:ls [选项][目录或文件]例:使用ls命令显示/h ...

  3. php7安装及和php5的共存

    http://blog.csdn.net/liuxinmingcode/article/details/50319145 http://www.jb51.net/article/109228.htm ...

  4. 判断re模块的布尔值

    示例: #!/usr/bin/python # coding:utf-8 # Author:Guido's admirers import re import time class card(obje ...

  5. 关于transform的属性

    transfrom的出现让许多静态的东西动了起来,让网页更加具有生命力. 在transform属性中,transform-origin属性仅是其中之一,要彻底理解transform属性,这是不够的,必 ...

  6. Codeforces 811 B. Vladik and Complicated Book

    B. Vladik and Complicated Book   time limit per test 2 seconds memory limit per test 256 megabytes i ...

  7. 二分图匹配【p2147】课程

    Description n个学生去p个课堂,每一个学生都有自己的课堂,并且每个学生只能去一个课堂,题目要求能够安排每一个课堂都有人吗? Input 第一行是测试数据的个数, 每组测试数据的开始分别是p ...

  8. 母亲的牛奶(milk) (BFS)

    问题 A: 母亲的牛奶(milk) 时间限制: 1 Sec  内存限制: 64 MB提交: 14  解决: 8[提交][状态][讨论版] 题目描述 农民约翰有三个容量分别是A.B.C升的桶,A.B.C ...

  9. 【数论】【欧拉函数】bzoj2190 [SDOI2008]仪仗队

    由图可知,一个人无法被看到时,当且仅当有 人与原点 的斜率与他相同,且在他之前. ∴一个人可以被看到,设其斜率为y/x,当且仅当y/x不可再约分,即gcd(x,y)=1. 考虑将图按对角线划分开,两部 ...

  10. 8.2(java学习笔记)反射

    一.基础知识 对象是表示或封装一些数据,一个类被加载后JVM会创建一个对应该类的Class对象, 类的整个结构信息会被放在对应的对象中,通过这个对象我们可以获取改类的全部信息, 而这些操作称为反射. ...