转载自:https://mp.weixin.qq.com/s/EQgDUSf3TK0oVg1xmg-49Q

Checkpoint是Spark Streaming中的核心机制,它为应用程序的7*24小时LongRunning提供保证。Spark Checkpoint是基于JVM Serializable机制来实现,它会定时将整个Checkpoint对象从内存中序列化到外部存储(如HDFS),在应用程序异常重启时,对它进行反序列化,从而恢复到重启之前的状态。

但是基于JVM Serializable机制来实现Checkpoint存在一个缺陷:Checkpoint相关联的内部类或者业务类,在进行升级时,可能导致Checkpoint无法反序列化,进而导致升级失败。在Spark的Structured Streaming中,为规避该问题而采用Json来序列化相关数据https://databricks.com/blog/2017/01/19/real-time-streaming-etl-structured-streaming-apache-spark-2-1.html。

跟进 Structured Streaming来将传统的Streaming升级到使用Json序列化会是一件工作量很大的事情。因此我们从JVM Serializable机制本身出发来定位和解决这个问题。

1. JVM序列化机制

在JVM中,继承Serializable的类可以在运行时,通过ObjectOutputStream将对象从内存中以字节的形式序列化到流中,或者通过ObjectInputStream从流中反序列化出一个Object对象。

对于序列化,ObjectOutputStream会将对象的类名,SerialVersionUID,成员变量的描述信息,以及成员变量的值以一定的格式写到字节流中。如果成员变量为其他对象的引用,会递归的进行序列化。

对于反序列化,ObjectInputStream首先会读取字节流中类名,驱动JVM类加载器加载相应类到内存中,再从流中读取已序列化的SerialVersionUID,并与刚加载类的SerialVersionUID进行比较,如果它们相同,就继续后面的反序列化操作,否则会反序列失败,报InvalidClassException异常。

即使加载类与老的序列化类的Class字节码不同,只要SerialVersionUID相同,反序列化依然会成功的。如果新加载的类中添加了成员变量,将填充为默认值,被移除的成员变量将会被跳过。

2. 如何解决

反序列化成功或失败只受SerialVersionUID的值影响。对于Spark Streaming,只要我们对Checkpoint相关联的可序列化类都强制标记上SerialVersionUID,即可解决上述问题。

通过对Checkpoint类以及它的成员属性进行递归查找,确定Spark内部相关联的序列化类有:

通过使用JVM自带的serialver工具,获取未标记版本的类的SerialVersionUID。

serialver [-classpath classpath] [-show] [classname…]

并将这些SerialVersionUID手动的设置到相应类中,比如Checkpoint类: 

经过测试,该方案可行。

3. 后序

在Oracle官方API文档http://docs.oracle.com/javase/7/docs/api/java/io/Serializable.html,对SerialVersionUID是这样描述的:

However, it is strongly recommended that all serializable classes explicitly declare serialVersionUID values, since the default serialVersionUID computation is highly sensitive to class details that may vary depending on compiler implementations, and can thus result in unexpected InvalidClassExceptions during deserialization.

即为了提高SerialVersionUID的独立性和确定性,官方强烈建议在一个可序列化类中显示的定义SerialVersionUID,为它赋予明确的值。

对于Spark 社区来说,既然存在这样一个缺陷,为什么不跟进将每个可序列化类都强制标记上SerialVersionUID呢?在(SPARK-13084)https://issues.apache.org/jira/browse/SPARK-13084中有这样的讨论:

Serialversionuid is generally a bad idea. It opens up a worse problem: you claim compatibility when something isn’t because you forget to update the field. I don’t think it’s expected that a serialized RDD is compatible across any different versions. I would be against this in general

即社区并没有希望Spark版本之间是二进制兼容的,比如说:不希望Spark 1.4版本序列化的数据可以跑在Spark 1.5的版本上,也不希望Spark 1.4版本的Driver与Spark 1.5的Executor之间进行通信。

但是对于公司的平台来说,需要在Spark社区版本的基础上,进行升级来满足一些特定需求,此时小版本之间的序列化兼容成为一个必要的属性。

4. 延伸阅读

如果不显式设置,SerialVersionUID如何确定?在《Java Object Serialization Specification》http://docs.oracle.com/javase/7/docs/platform/serialization/spec/class.html#4100是这样描述的:

但是Spark是基于Scala开发的。除了上述相同的语法元素会影响SerialVersionUID以外,Scala自身一些语法元素也可能影响SerialVersionUID。

1. 修改类的访问权限(public,private)不影响SerialVersionUID。

2. 新增和删除val常量会影响SerialVersionUID。

3. 闭包会被编译为可序列化类,并且其SerialVersionUID永远为0,对闭包元素的修改都不影响SerialVersionUID。

4. case class会被编译为可序列化类,其SerialVersionUID影响因素与普通类相同。

5. 增加或删除伴身对象的字段或者方法,如果它与伴身类中成员同名,即不会影响伴身类的SerialVersionUID,否则会影响。

6. 伴身对象中定义的private字段或方法不会影响伴身类的SerialVersionUID。

Spark Streaming Checkpoint反序列化问题分析的更多相关文章

  1. Apache 流框架 Flink,Spark Streaming,Storm对比分析(一)

    本文由  网易云发布. 1.Flink架构及特性分析 Flink是个相当早的项目,开始于2008年,但只在最近才得到注意.Flink是原生的流处理系统,提供high level的API.Flink也提 ...

  2. Spark Streaming之四:Spark Streaming 与 Kafka 集成分析

    前言 Spark Streaming 诞生于2013年,成为Spark平台上流式处理的解决方案,同时也给大家提供除Storm 以外的另一个选择.这篇内容主要介绍Spark Streaming 数据接收 ...

  3. Apache 流框架 Flink,Spark Streaming,Storm对比分析(2)

    此文已由作者岳猛授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 2.Spark Streaming架构及特性分析 2.1 基本架构 基于是spark core的spark s ...

  4. 苏宁基于Spark Streaming的实时日志分析系统实践 Spark Streaming 在数据平台日志解析功能的应用

    https://mp.weixin.qq.com/s/KPTM02-ICt72_7ZdRZIHBA 苏宁基于Spark Streaming的实时日志分析系统实践 原创: AI+落地实践 AI前线 20 ...

  5. Apache 流框架 Flink,Spark Streaming,Storm对比分析(二)

    本文由  网易云发布. 本文内容接上一篇Apache 流框架 Flink,Spark Streaming,Storm对比分析(一) 2.Spark Streaming架构及特性分析 2.1 基本架构 ...

  6. Spark 实践——基于 Spark Streaming 的实时日志分析系统

    本文基于<Spark 最佳实践>第6章 Spark 流式计算. 我们知道网站用户访问流量是不间断的,基于网站的访问日志,即 Web log 分析是典型的流式实时计算应用场景.比如百度统计, ...

  7. spark streaming checkpoint

    Checkpoint机制 通过前期对Spark Streaming的理解,我们知道,Spark Streaming应用程序如果不手动停止,则将一直运行下去,在实际中应用程序一般是24小时*7天不间断运 ...

  8. Apache 流框架 Flink,Spark Streaming,Storm对比分析(1)

    此文已由作者岳猛授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 1.Flink架构及特性分析 Flink是个相当早的项目,开始于2008年,但只在最近才得到注意.Flink是 ...

  9. Spark Streaming 与Filnk对比分析

    转:https://mp.weixin.qq.com/s/jllAegJMYh_by95FhHt0jA

随机推荐

  1. MongoDB(一):关系型数据库和非关系型数据库

    一.关系型数据库 1.概念 关系型数据库:是指采用了关系模型来组织数据的数据库,是目前各类数据库中使用最为广泛的数据库系统.简单的说,关系模型指的就是二维表格模型,一个关系型数据库就是由二维表及其之间 ...

  2. 去死吧!USB转串口!!!

    首先,这个题目有两种歧义:1.USB转232串口(严格说就是这种)! 2.USB转USART串口(通常都是这么叫,认为就是这,理论上是错误的,歧义所在)! USB转TTL.USB转232.USB转串口 ...

  3. 转:Socket服务器整体架构概述

    Socket服务器主要用于提供高效.稳定的数据处理.消息转发等服务,它直接决定了前台应用程序的性能.我们先从整体上认识一下Socket服务器,Socket服务器从架构上一般分为:网络层.业务逻辑层.会 ...

  4. Linux环境下Apache配置多个虚拟主机挂载多站点同时运行

    博客地址: http://blog.csdn.net/ClydeKuo/article/details/69569474 这篇博客讲的很详细,很详细.

  5. 经验总结20--C#模拟WEB请求

    非常多语言能够使用代码进行WEB请求,获取到须要的数据. 方便调用别人的接口,自己进行处理. HttpWebRequest request = WebRequest.Create(url) as Ht ...

  6. 编程之美 set 4 找到符合条件的数

    题目 任意给定一个正整数 N, 求一个最小的正整数 M (M > 1), 使得 N*M 的十进制表达式中只有 0 和 1. 解法 1. 枚举0,1能够组成的数字, 可以组成一颗二叉树 然后由 B ...

  7. android APP上线前,应该准备的东西

    这里给出一些主流的应用市场名单,有些可能已经不行了,自己找一找,很容易的: 应用市场图-1

  8. Storm基础概念与单词统计示例

    Storm基本概念 Storm是一个分布式的.可靠地.容错的数据流处理系统.Storm分布式计算结构称为Topology(拓扑)结构,顾名思义,与拓扑图十分类似.该拓扑图主要由数据流Stream.数据 ...

  9. Java使用BigDecimal解决浮点型运算丢失精度的问题

    @Test public void test1(){ System.out.print(0.05+0.01); } @Test public void test2(){ BigDecimal b1 = ...

  10. bootstrap datetimepicker 日期插件超详细使用方法

    日期时间选择器 目前,bootstrap有两种日历.datepicker和datetimepicker,后者是前者的拓展. Bootstrap日期和时间组件: 使用示例: 从左到右依次是十年视图.年视 ...