转载自:https://mp.weixin.qq.com/s/EQgDUSf3TK0oVg1xmg-49Q

Checkpoint是Spark Streaming中的核心机制,它为应用程序的7*24小时LongRunning提供保证。Spark Checkpoint是基于JVM Serializable机制来实现,它会定时将整个Checkpoint对象从内存中序列化到外部存储(如HDFS),在应用程序异常重启时,对它进行反序列化,从而恢复到重启之前的状态。

但是基于JVM Serializable机制来实现Checkpoint存在一个缺陷:Checkpoint相关联的内部类或者业务类,在进行升级时,可能导致Checkpoint无法反序列化,进而导致升级失败。在Spark的Structured Streaming中,为规避该问题而采用Json来序列化相关数据https://databricks.com/blog/2017/01/19/real-time-streaming-etl-structured-streaming-apache-spark-2-1.html。

跟进 Structured Streaming来将传统的Streaming升级到使用Json序列化会是一件工作量很大的事情。因此我们从JVM Serializable机制本身出发来定位和解决这个问题。

1. JVM序列化机制

在JVM中,继承Serializable的类可以在运行时,通过ObjectOutputStream将对象从内存中以字节的形式序列化到流中,或者通过ObjectInputStream从流中反序列化出一个Object对象。

对于序列化,ObjectOutputStream会将对象的类名,SerialVersionUID,成员变量的描述信息,以及成员变量的值以一定的格式写到字节流中。如果成员变量为其他对象的引用,会递归的进行序列化。

对于反序列化,ObjectInputStream首先会读取字节流中类名,驱动JVM类加载器加载相应类到内存中,再从流中读取已序列化的SerialVersionUID,并与刚加载类的SerialVersionUID进行比较,如果它们相同,就继续后面的反序列化操作,否则会反序列失败,报InvalidClassException异常。

即使加载类与老的序列化类的Class字节码不同,只要SerialVersionUID相同,反序列化依然会成功的。如果新加载的类中添加了成员变量,将填充为默认值,被移除的成员变量将会被跳过。

2. 如何解决

反序列化成功或失败只受SerialVersionUID的值影响。对于Spark Streaming,只要我们对Checkpoint相关联的可序列化类都强制标记上SerialVersionUID,即可解决上述问题。

通过对Checkpoint类以及它的成员属性进行递归查找,确定Spark内部相关联的序列化类有:

通过使用JVM自带的serialver工具,获取未标记版本的类的SerialVersionUID。

serialver [-classpath classpath] [-show] [classname…]

并将这些SerialVersionUID手动的设置到相应类中,比如Checkpoint类: 

经过测试,该方案可行。

3. 后序

在Oracle官方API文档http://docs.oracle.com/javase/7/docs/api/java/io/Serializable.html,对SerialVersionUID是这样描述的:

However, it is strongly recommended that all serializable classes explicitly declare serialVersionUID values, since the default serialVersionUID computation is highly sensitive to class details that may vary depending on compiler implementations, and can thus result in unexpected InvalidClassExceptions during deserialization.

即为了提高SerialVersionUID的独立性和确定性,官方强烈建议在一个可序列化类中显示的定义SerialVersionUID,为它赋予明确的值。

对于Spark 社区来说,既然存在这样一个缺陷,为什么不跟进将每个可序列化类都强制标记上SerialVersionUID呢?在(SPARK-13084)https://issues.apache.org/jira/browse/SPARK-13084中有这样的讨论:

Serialversionuid is generally a bad idea. It opens up a worse problem: you claim compatibility when something isn’t because you forget to update the field. I don’t think it’s expected that a serialized RDD is compatible across any different versions. I would be against this in general

即社区并没有希望Spark版本之间是二进制兼容的,比如说:不希望Spark 1.4版本序列化的数据可以跑在Spark 1.5的版本上,也不希望Spark 1.4版本的Driver与Spark 1.5的Executor之间进行通信。

但是对于公司的平台来说,需要在Spark社区版本的基础上,进行升级来满足一些特定需求,此时小版本之间的序列化兼容成为一个必要的属性。

4. 延伸阅读

如果不显式设置,SerialVersionUID如何确定?在《Java Object Serialization Specification》http://docs.oracle.com/javase/7/docs/platform/serialization/spec/class.html#4100是这样描述的:

但是Spark是基于Scala开发的。除了上述相同的语法元素会影响SerialVersionUID以外,Scala自身一些语法元素也可能影响SerialVersionUID。

1. 修改类的访问权限(public,private)不影响SerialVersionUID。

2. 新增和删除val常量会影响SerialVersionUID。

3. 闭包会被编译为可序列化类,并且其SerialVersionUID永远为0,对闭包元素的修改都不影响SerialVersionUID。

4. case class会被编译为可序列化类,其SerialVersionUID影响因素与普通类相同。

5. 增加或删除伴身对象的字段或者方法,如果它与伴身类中成员同名,即不会影响伴身类的SerialVersionUID,否则会影响。

6. 伴身对象中定义的private字段或方法不会影响伴身类的SerialVersionUID。

Spark Streaming Checkpoint反序列化问题分析的更多相关文章

  1. Apache 流框架 Flink,Spark Streaming,Storm对比分析(一)

    本文由  网易云发布. 1.Flink架构及特性分析 Flink是个相当早的项目,开始于2008年,但只在最近才得到注意.Flink是原生的流处理系统,提供high level的API.Flink也提 ...

  2. Spark Streaming之四:Spark Streaming 与 Kafka 集成分析

    前言 Spark Streaming 诞生于2013年,成为Spark平台上流式处理的解决方案,同时也给大家提供除Storm 以外的另一个选择.这篇内容主要介绍Spark Streaming 数据接收 ...

  3. Apache 流框架 Flink,Spark Streaming,Storm对比分析(2)

    此文已由作者岳猛授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 2.Spark Streaming架构及特性分析 2.1 基本架构 基于是spark core的spark s ...

  4. 苏宁基于Spark Streaming的实时日志分析系统实践 Spark Streaming 在数据平台日志解析功能的应用

    https://mp.weixin.qq.com/s/KPTM02-ICt72_7ZdRZIHBA 苏宁基于Spark Streaming的实时日志分析系统实践 原创: AI+落地实践 AI前线 20 ...

  5. Apache 流框架 Flink,Spark Streaming,Storm对比分析(二)

    本文由  网易云发布. 本文内容接上一篇Apache 流框架 Flink,Spark Streaming,Storm对比分析(一) 2.Spark Streaming架构及特性分析 2.1 基本架构 ...

  6. Spark 实践——基于 Spark Streaming 的实时日志分析系统

    本文基于<Spark 最佳实践>第6章 Spark 流式计算. 我们知道网站用户访问流量是不间断的,基于网站的访问日志,即 Web log 分析是典型的流式实时计算应用场景.比如百度统计, ...

  7. spark streaming checkpoint

    Checkpoint机制 通过前期对Spark Streaming的理解,我们知道,Spark Streaming应用程序如果不手动停止,则将一直运行下去,在实际中应用程序一般是24小时*7天不间断运 ...

  8. Apache 流框架 Flink,Spark Streaming,Storm对比分析(1)

    此文已由作者岳猛授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 1.Flink架构及特性分析 Flink是个相当早的项目,开始于2008年,但只在最近才得到注意.Flink是 ...

  9. Spark Streaming 与Filnk对比分析

    转:https://mp.weixin.qq.com/s/jllAegJMYh_by95FhHt0jA

随机推荐

  1. MySQL线程池总结

    线程池是Mysql5.6的一个核心功能,对于服务器应用而言,无论是web应用服务还是DB服务,高并发请求始终是一个绕不开的话题.当有大量请求并发访问时,一定伴随着资源的不断创建和释放,导致资源利用率低 ...

  2. 如何从CentOS官网下载我们想要的版本

    今天想从官网下载6.5版本的CentOS,结果找了好一会儿才找到,赶紧记录下来,以备以后查询. 第一步在百度搜索centos,点击"Download CentOS",如下图所示. ...

  3. 容斥 + 组合数学 ---Codeforces Round #317 A. Lengthening Sticks

    Lengthening Sticks Problem's Link: http://codeforces.com/contest/571/problem/A Mean: 给出a,b,c,l,要求a+x ...

  4. 《javascript征途》学习笔记

    基础 1. 只有函数有作用域 2. 如果在<script src>的src 中设置了src特性,则script元素包含的任意代码就无效了.应该分开放到不同的script块中. 3. 外部j ...

  5. mysql查询各种类型的前N条记录

    mysql查询各种类型的前N条记录,将3改为N(需查询条数)即可  (select * from event_info where event_type = 1  limit 3)union all( ...

  6. Mongodb默认开启与关闭

    默认启动:   $ ./mongodb   默认数据保存路径:/data/db/ 默认端口:27017   修改默认路径:   --dbpath $ ./mongdb --dbpath /mongod ...

  7. UE4 Multiplayer多人局域网LAN联机打包参数设置

    需要注意几点: A. 建好后我们先到项目根目录,在Config文件夹中的DefaultEngine.ini文件加上两行: [OnlineSubsystem]  DefaultPlatformServi ...

  8. SQL ALTER TABLE 命令

    SQL ALTER TABLE 命令 SQL ALTER TABLE 命令用于添加.删除或者更改现有数据表中的列. 你还可以用 ALTER TABLE 命令来添加或者删除现有数据表上的约束. 语法: ...

  9. 模拟http请求 带 chunked解析办法二

    以PHP代码为例 //这个是解析chuned块 get_chunk_data($fsock) { $data = ''; while(true) { $len = hexdec(fgets($fsoc ...

  10. JS图片加载时获取图片宽高信息

    ; var img = new Image(); img.src = node.find("img[class='img1_1']").attr("src"); ...