spark是怎么从RDD升级到DataFrame的?
本文始发于个人公众号:TechFlow,原创不易,求个关注
今天是spark专题的第五篇,我们来看看DataFrame。
用过Python做过机器学习的同学对Python当中pandas当中的DataFrame应该不陌生,如果没做过也没有关系,我们简单来介绍一下。DataFrame翻译过来的意思是数据帧,但其实它指的是一种特殊的数据结构,使得数据以类似关系型数据库当中的表一样存储。使用DataFrame我们可以非常方便地对整张表进行一些类似SQL的一些复杂的处理。Apache Spark在升级到了1.3版本之后,也提供了类似功能的DataFrame,也就是大名鼎鼎的SparkSQL。
关于SparkSQL的前世今生其实是有一大段历史的,这一段历史除了可以充当吹牛的谈资之外,还可以帮助我们理清楚许多技术之间的内在关联。
从优化到重构的血泪史
在程序开发这个行当,优化和重构注定是两个无法摆脱的问题。
当一个项目启动的时候,由于投入有限,可能招不到特别匹配的人才,或者是为了快速满足业务的需要。往往会采取一些不是特别合理的设计来构建项目,这个应该很好理解,为了图快牺牲一些性能或者是拓展性。而且有时候由于视野和能力的限制,早期的开发者可能也是无法意识到设计中的不合理性的。但是俗话说得好,出来混早晚是要还的。前面挖了坑,后来早晚也会暴露出来。问题就在于暴露了之后我们怎么处理。
一般来说,无论是作为公司也好,还是作为开发者个人也罢。想的肯定都是怎么样以最小的代价解决问题,也就是尽量优化,能不动核心代码就不动。除了因为核心代码太久没有维护或者是文档缺失之外,也涉及到成本问题。现在的项目日进斗金,每天都在运行,一旦要下决心把核心代码翻新一遍,那么会付出巨大的代价,可能整个项目组要暂停一段时间。而且在上层管理层眼中,往往也是看不到重构的必要性的。因为上层都是以业务为导向的,技术做得好不好不重要,能赚钱才是王道。
但问题是优化并不是无止境的,很多时候核心设计的不合理才是大头,边边角角的修补只能聊胜于无。这个时候考验的往往都是技术负责人的担当了,是当个糊裱匠混一年是一年,还是壮士断腕,敢叫日月换新天。一般来说糊裱起到的效果都是有限的,总会有撑不下去要重构的那天。
SparkSQL早期的发展就非常好的印证了这点,SparkSQL诞生之初就是当做一个优化项目诞生的。目的是为了优化Hive中在spark的效率。
这里的Hive可能很多人不太熟悉,它是Hadoop家族结构化查询的工具。将hadoop集群中的数据以表结构的形式存储,让程序员可以以类SQL语句来查询数据。看起来和数据库有些近似,但原理不太一样。Hive底层是以MapReduce驱动的,也就是说会把我们写好的SQL转化成MapReduce执行。由于Hive易用性很好,使用的人很多,所以spark当中也支持Hive。
但其实那个时候spark兴起,MapReduce时代已经逐渐走到了末期。那时的spark是基于前面介绍的RDD的结构处理数据的,性能比MapReduce好得多。但如果在spark上依然使用MapReduce的形式支持Hive,那么就不能体现出spark计算性能的优越性。所以对于Hive on Spark的优化势在必行。我个人觉得这有点抢市场的调调。
最好的办法是对spark彻底重构,重建出一套支持结构化数据查询的计算框架。但估计那时候主负责人没能狠下心,或者是为了赶时间。所以只是对Hive进行了一些优化,大概就是把一些使用MapReduce的计算想办法尽量改成使用RDD,从而提升整体的效率。这样做当然是能够有提升的,但是核心的框架仍然是Hive的那一套机制,这样的提升是有限的。大概过了三年左右的时间,基本上所有能压榨出来的性能都被压榨完了,开发组经过激烈的思想斗争之后,终于接受现实,彻底抛弃原本的框架,构建出一套新的架构来。
这套新开发出的架构就是SparkSQL,也就是DataFrame。
SparkSQL的架构
我们来简单看下SparkSQL的架构,大概知道内部是怎么运行的。
整个SparkSQL的模型大概分为三层,最上面是编程模型层,中间是执行优化层,最后是任务执行引擎。
这些都是术语,我们简单介绍一下,编程模型层主要有两块一块是SparkSQL一种是DataFrame,这两者只是语法不一样,底层执行的逻辑是一样的。主要做的是对我们写的一些语法进行解析以及一些基本的处理。执行计划层是将SQL语句转化成具体需要执行的逻辑执行计划,根据一些策略进行优化之后输出物理执行策略。最后一层是执行层,负责将物理计划转化成RDD或者是DAG进行执行。
我们观察一下这个架构,可能还有很多细节不是很清楚,但是至少整个执行的过程已经很明白了。进一步可以发现,整个架构当中已经完全没有MapReduce的影子了,底层的执行单元就是RDD。也就是说SparkSQL其实是进一步更高层次的封装。
RDD和DataFrame
我们来简单看下DataFrame和RDD的差别,最大最直观的差别就是DataFrame多了schema的概念。也就是多了数据格式的概念,我们拿到DataFrame可以很轻松地获取它其中数据的结构信息。
我们看下下图做个对比,同样一份数据在RDD和DataFrame的样子:
不要小瞧这个schema,有了它之后,我们就可以做一些结构化数据才支持的操作了。比如groupby、where、sum等等。这些结构化数据操作的灵活度要比RDD的map、filter等操作大得多。
另外一个好处就是效率,如果我们自己写RDD来操作数据的话,那么Python是一定干不过scala和java的。因为spark底层是依托Java实现的,spark的所有计算都执行在JVM当中。scala和java都是直接在JVM当中直接运行的语言,而Python不行,所以之前我们使用Python调用RDD处理spark的速度也会慢很多。因为我们需要经过多层中转,我们可以看下下面这张图。
当我们执行pyspark当中的RDD时,spark context会通过Py4j启动一个使用JavaSparkContext的JVM,所有的RDD的转化操作都会被映射成Java中的PythonRDD对象。当我们的任务被传输到Workder进行执行的时候,PythonRDD会启动Python的子进程来传输代码和执行的结果。
上面这段话说起来有点绕,简单理解就是当pyspark调用RDD的时候,Python会转化成Java调用spark集群分发任务。每一个任务具体在机器上执行的时候,还是以Python程序的方式执行。执行结束之后,还是通过Python拿回数据给spark中的JVM。JVM执行结束之后,再把结果包装成Python的类型返回给调用端。
本来Python的执行效率就低,加上中间又经过了若干次转换以及通信开销(占大头),这就导致了pyspark中的RDD操作效率更低。
而现在有了Catalyst优化器之后,会自动帮助我们进行底层的计算优化。并且即使是非原生的Python语言,也可以使用它,因此会带来性能的极大提升。甚至经过官方的测量,使用pyspark写DataFrame的效率已经和scala和java平起平坐了。
所以如果我们要选择Python作为操作spark的语言,DataFrame一定是首选。不过Catalyst优化器也有短板,它无法解决跨语言本身带来的问题。比如我们使用Python写一些udf(user defined function),还是会带来性能的损耗。这个时候的整体效率还是会比scala低一些。
写了这么多废话,下面就让我们实际一点,看看究竟pyspark当中的DataFrame要如何使用吧。
创建DataFrame
和RDD一样,DataFrame的创建方法有很多,我们可以基于内存当中的数据进行创建,也可以从本地文件或者是HDFS等其他云存储系统当中进行读取。但怎么读取不重要,使用方法才是关键,为了方便演示,我们先来看看如何从内存当中创建DataFrame。
前文当中曾经说过,DataFrame当中的数据以表结构的形式存储。也就是说我们读入的一般都是结构化的数据,我们经常使用的结构化的存储结构就是json,所以我们先来看看如何从json字符串当中创建DataFrame。
首先,我们创建一个json类型的RDD。
jsonstr = sc.parallelize(("""
{'name': 'xiaoming', 'age': 13, 'score': 100}""",
"""{'name': 'xiaohong', 'age': 15, 'score': 98}"""
))
接着,我们用spark.read.json将它转化成一个DataFrame。需要注意的是,如果数据量很大,这个执行会需要一点时间,但是它仍然是一个转化操作。数据其实并没有真正被我们读入,我们读入的只是它的schema而已,只有当我们执行执行操作的时候,数据才会真正读入处理。
studentDf = spark.read.json(jsonstr)
执行完这一句之后,RDD转DataFrame的工作就完成了。严格说起来这是读取操作,并不是真正的转化操作。RDD转DataFrame稍微复杂一些,我们晚点再说。
如果我们想要查看DataFrame当中的内容,我们可以执行show方法,这是一个行动操作。和pandas中的head类似,执行之后,会展示出DataFrame当中前20条数据。我们也可以传入参数,指定我们要求展示的数据条数。
我们来运行一下,看看展示出来的结果:
我们也collect一下原本的RDD作为一下对比:
这下一对比我们就发现了,json格式的字符串果然可以被解析,并且RDD被转化成了表格格式的DataFrame。
查询
我们再来看下DataFrame的简单查询功能,其实Dataframe当中的查询功能很多。我们今天先来看其中用得比较多的两种。
先来看第一种,第一种是通过select接口查询数据。这里的select其实对应的是SQL语句当中的select,含义也基本相同,不同的是我们是通过函数进行调用的而已。
我们可以在select当中传入我们想要查找的列名。
我们可以加上where或者filter函数进行条件判断,where和filter函数是一个意思,两者的用法也完全一样。官方提供了两个名字,为了不同习惯的人使用方便而已。我们把下图当中的函数换成filter结果也是一样的。
另外一种操作方式稍稍复杂一些,则是将DataFrame注册成pyspark中的一张视图。这里的视图和数据库中的视图基本上是一个概念,spark当中支持两种不同的视图。第一种是临时视图,第二种是全局视图。两者的用法基本一致,不同的是作用范围。临时视图的作用范围是当前的session,如果当前的session关闭,或者是另外开启了新的session,这个视图就会作废。而全局视图则是跨session的,所有session都可以使用。
如果搞不清楚session的概念也没有关系,在之后的文章当中我们还会遇到的。我们先有这么个印象即可。
我们调用createOrReplaceTempView方法创建一个临时视图,有了视图之后,我们就可以通过SQL语句来查询数据了。
studentDf.createOrReplaceTempView("student")
我们通过spark.sql传入一段SQL string即可完成数据的调用,需要注意的是,DataFrame也支持RDD的collect或者take等方法。如果这里的结果我们调用的是collect,那么spark会将所有数据都返回。如果数据集很大的情况下可能会出现问题,所以要注意show和collect的使用范围和区别,在一些场景下搞错了会很危险。
结尾
今天这篇文章我们一起来看了pyspark当中目前为止最常用的数据处理工具——DataFrame,还简单了解了一下它和RDD相比的性能优势以及它简单的查询语法的使用方法。
从上面的方法我们也看得出来,相比之前RDD中介绍的那些方法,DataFrame中封装的API提供了更多高级的功能,比写RDD处理数据也要方便很多。再加上性能原因,我们在处理数据时必然首选使用DataFrame。相信大家通过本文对于DataFrame也应该有了一个最初的印象,后续还会有更多文章详细地介绍DataFrame的使用以及内部机制的一些细节,敬请期待吧。
今天的文章就到这里,原创不易,扫码关注我,获取更多精彩文章。
spark是怎么从RDD升级到DataFrame的?的更多相关文章
- Spark之 RDD转换成DataFrame的Scala实现
依赖 <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2. ...
- spark的RDD如何转换为DataFrame
1.Dataset与RDD之间的交互 Spark仅支持两种方式来将RDD转成Dataset.第一种方式是使用反射来推断一个RDD所包含的对象的特定类型.这种基于反射的方式会让代码更加地简洁,当你在编写 ...
- 【Spark篇】---SparkSQL初始和创建DataFrame的几种方式
一.前述 1.SparkSQL介绍 Hive是Shark的前身,Shark是SparkSQL的前身,SparkSQL产生的根本原因是其完全脱离了Hive的限制. SparkSQL支持查询原 ...
- Spark之 使用SparkSql操作mysql和DataFrame的Scala实现
通过读取文件转换成DataFrame数据写入到mysql中 package com.zy.sparksql import java.util.Properties import org.apache. ...
- Spark 并行计算模型:RDD
Spark 允许用户为driver(或主节点)编写运行在计算集群上,并行处理数据的程序.在Spark中,它使用RDDs代表大型的数据集,RDDs是一组不可变的分布式的对象的集合,存储在executor ...
- Spark Streaming揭秘 Day8 RDD生命周期研究
Spark Streaming揭秘 Day8 RDD生命周期研究 今天让我们进一步深入SparkStreaming中RDD的运行机制.从完整的生命周期角度来说,有三个问题是需要解决的: RDD到底是怎 ...
- 【原创】大数据基础之Spark(4)RDD原理及代码解析
一 简介 spark核心是RDD,官方文档地址:https://spark.apache.org/docs/latest/rdd-programming-guide.html#resilient-di ...
- 【Spark基础】:RDD
我的代码实践:https://github.com/wwcom614/Spark 1.RDD是Spark提供的核心抽象,全称为Resillient Distributed Dataset,即弹性分布式 ...
- Spark编程模型(RDD编程模型)
Spark编程模型(RDD编程模型) 下图给出了rdd 编程模型,并将下例中用 到的四个算子映射到四种算子类型.spark 程序工作在两个空间中:spark rdd空间和 scala原生数据空间.在原 ...
随机推荐
- Simple Chat Application for Python
一.知识点介绍: asyncore .asynchat模块使用 由于 Python 是一门带 GIL 的语言,所以在 Python 中使用多线程处理IO操作过多的任务并不是很好的选择.同时聊天服务器将 ...
- 负载均衡服务之HAProxy基础入门
首先我们来了解下haproxy是干嘛的?haproxy是一个法国人名叫Willy Tarreau开发的一个开源软件:这款软件主要用于解决客户端10000以上的同时连接的高性能的TCP和HTTP负载均衡 ...
- 乱 七 八 糟 $(n.)$
\(2020/4/22\) 今天常规作业还是太慢了,白天似乎已经抓紧了,但总还能挤出时间来的.八点钟了还有物理和英语作业,回去又得很晚睡. 还是容易开小差,不过回忆了一下,今天化学课还是太懒散,其余的 ...
- Java IO基础--File常用操作(递归)
File中经常会使用递归方法打印属性结构.统计文件夹下文件个数.子文件夹个数以及文件大小,可以作为递归的应用练习. 递归的写法,百度一搜一大堆,这里我使用对javabean方式封装了一下: packa ...
- 线程Event
版本一: from threading import Event,current_thread,Thread import time event=Event() #造一个对象,内部维护一个全局变量,状 ...
- 详细的JavaScript知识梳理和经典的一百个例题,让你掌握JavaScript
这里先做一下JavaScript知识点的梳理,具体的可领取资料 JavaScript语法: js语法.png DOM操作: DOM操作.png 数据类型 面向对象 继承 闭包 插件 作用域 跨域 原型 ...
- PHP Callable强制指定回调类型的方法
如果一个方法需要接受一个回调方法作为参数,我们可以这样写 <?php function dosth($callback){ call_user_func($callback); } functi ...
- Golang快速入门:从菜鸟变大佬
最近写了不少Go代码,但是写着写着,还是容易忘,尤其是再写点Python代码后.所以找了一篇不错的Golang基础教程,翻译一下,时常看看. 原文链接: 「Learning Go - from zer ...
- linux的p0f检测,分析抓包信息
p0f是一个纯粹的被动指纹识别工具,它在不干涉双方通信的情况下,通过嗅探的方式来分析流经某一网卡的流量以达到指纹识别的目的 P0f是继Nmap和Xprobe2之后又一款远程操作系统被动判别工具.它支持 ...
- iterm2终端manpage高亮显示
iterm2 据说是macOS平台上最好用的终端工具,今天下载来用了一下,发现确实很好.但是在使用man命令显示manpage的时候,颜色配置不是很让人满意,就像下面这样: 其实这样也是不错的,但是用 ...