Spark之 SparkSql、DataFrame、DataSet介绍
SparkSql
SparkSql是专门为spark设计的一个大数据仓库工具,就好比hive是专门为hadoop设计的一个大数据仓库工具一样。
特性:
、易整合
可以将sql查询与spark应用程序进行无缝混合使用,同时可以使用java、scala、python、R语言开发代码
、统一的数据源访问
sparksql可以使用一种相同的方式来对接外部的数据源
val dataframe=SparkSession.read.格式("该格式文件的路径")
、兼容hive
可以通过sparksql来操作hivesql
、支持标准的数据库连接
可以通过使用jdbc和odbc来连接上数据库
DataFrame
DataFrame前身叫SchemaRDD,在spark1.3.0之后把schemaRDD改名为DataFrame,DataFrame不在继承RDD,而之前的SchemaRDD它是直接继承自RDD,它是自己实现了RDD的一些方法。
DataFrame是spark中基于RDD的分布式数据集,类似于传统数据库中的二维表格,表中有对应的字段名称和类型。在DataFrame这些信息就是它schema元信息。
DataFrame和RDD的区别
DataFrame比RDD多了对数据结构的描述信息,也就是DataFrame中的schema,schema里面有哪些列和列的类型是什么。
DataFrame和RDD的优缺点
RDD
优点
、编译时类型安全
也就是说后期开发代码的时候会进行类型的检查
、具有面向对象编程的风格
可以通过对象调用方法
缺点
、数据序列化和反序列化性能开销很大。
数据在进行网络传输的时候,先要进行序列化,后续又需要进行反序列化这些操作都是在内存中进行
、频繁的对象的创建会带来GC(jvm内存回收机制:垃圾回收),GC处理的时候,其他进程都会暂停。
DataFrame
优点
DataFrame引入了schema和off-heap
、schema就是对于DataFrame数据的结构信息进行描述
在进行数据序列化的时候,就不需要针对于数据的结构进行序列化了,直接把数据本身进行序列化就可以了,减少数据的网络传输。
解决了RDD在数据进行序列化和反序列化性能开销很大这个缺点。
、off-heap不在使用jvm堆中的内存来构建大量的对象,而是直接使用操作系统层面上的内存
解决了RDD在堆中频繁创建大量的对象造成GC这个缺点。
缺点
DataFrame引入了schema和off-heap解决了RDD的缺点,同时也丢失了RDD的优点
、编译时不在是类型安全
、也不具备面向对象编程这种风格
创建DataFrame的几种方式
读取文本文件
val df=spark.read.text("/person.txt")
df.printSchema
df.show
读取json文件
val df=spark.read.json("/people.json")
df.printSchema
df.show
读取parquet文件
val df=spark.read.parquet("/users.parquet")
df.printSchema
df.show
DataSet
DataSet是分布式的数据集合,Dataset提供了强类型支持,也是在RDD的每行数据加了类型约束。DataSet是在Spark1.6中添加的新的接口。它集中了RDD的优点(强类型和可以用强大lambda函数)以及使用了Spark SQL优化的执行引擎。
DataSet和DataFrame的转换
1、DataFrame转换成DataSet
val ds=df.as[强类型]
2、DataSet转换成DataFrame
val df=ds.toDF
创建DataSet的几种方式
通过一个已经存在的scala集合去构建
val ds=spark.createDataset(List(1,2,3,4))
val ds=List(1,2,3,4).toDS
通过一个已经存在的RDD去构建
val ds=spark.createDataset(sc.textFile("/person.txt"))
DataFrame转换成DataSet
val ds=df.as[强类型]
通过一个已经存在DataSet调用对应的方法去生成一个新的DataSet
val ds1=ds.map(x =>"itcast:"+x)
http://spark.apache.org/docs/2.1.3/api/scala/index.html#org.apache.spark.sql.Dataset
Spark之 SparkSql、DataFrame、DataSet介绍的更多相关文章
- spark RDD,DataFrame,DataSet 介绍
弹性分布式数据集(Resilient Distributed Dataset,RDD) RDD是Spark一开始就提供的主要API,从根本上来说,一个RDD就是你的数据的一个不可变的分布式元素集合,在 ...
- Spark入门之DataFrame/DataSet
目录 Part I. Gentle Overview of Big Data and Spark Overview 1.基本架构 2.基本概念 3.例子(可跳过) Spark工具箱 1.Dataset ...
- Spark提高篇——RDD/DataSet/DataFrame(一)
该部分分为两篇,分别介绍RDD与Dataset/DataFrame: 一.RDD 二.DataSet/DataFrame 先来看下官网对RDD.DataSet.DataFrame的解释: 1.RDD ...
- Spark提高篇——RDD/DataSet/DataFrame(二)
该部分分为两篇,分别介绍RDD与Dataset/DataFrame: 一.RDD 二.DataSet/DataFrame 该篇主要介绍DataSet与DataFrame. 一.生成DataFrame ...
- spark结构化数据处理:Spark SQL、DataFrame和Dataset
本文讲解Spark的结构化数据处理,主要包括:Spark SQL.DataFrame.Dataset以及Spark SQL服务等相关内容.本文主要讲解Spark 1.6.x的结构化数据处理相关东东,但 ...
- Spark学习之路(八)—— Spark SQL 之 DataFrame和Dataset
一.Spark SQL简介 Spark SQL是Spark中的一个子模块,主要用于操作结构化数据.它具有以下特点: 能够将SQL查询与Spark程序无缝混合,允许您使用SQL或DataFrame AP ...
- Spark 系列(八)—— Spark SQL 之 DataFrame 和 Dataset
一.Spark SQL简介 Spark SQL 是 Spark 中的一个子模块,主要用于操作结构化数据.它具有以下特点: 能够将 SQL 查询与 Spark 程序无缝混合,允许您使用 SQL 或 Da ...
- APACHE SPARK 2.0 API IMPROVEMENTS: RDD, DATAFRAME, DATASET AND SQL
What’s New, What’s Changed and How to get Started. Are you ready for Apache Spark 2.0? If you are ju ...
- spark算子之DataFrame和DataSet
前言 传统的RDD相对于mapreduce和storm提供了丰富强大的算子.在spark慢慢步入DataFrame到DataSet的今天,在算子的类型基本不变的情况下,这两个数据集提供了更为强大的的功 ...
- Spark RDD、DataFrame和DataSet的区别
版权声明:本文为博主原创文章,未经博主允许不得转载. 目录(?)[+] 转载请标明出处:小帆的帆的专栏 RDD 优点: 编译时类型安全 编译时就能检查出类型错误 面向对象的编程风格 直接通过类 ...
随机推荐
- HTML CSS 表格换行禁止 超出指定长度自动截断
word-break:keep-all; white-space:nowrap; overflow:hidden; min-width:30px; max-width:100px;
- Lua在Linux下的安装
转载于:http://blog.csdn.net/aizquan/article/details/21190393 本来这个很简单,但常常会偶尔会有问题,也记不住,所以就直接转下来,以后方便遇到的时候 ...
- 常用ETL工具
一 ETL工具[国外] 1. datastage点评:最专业的ETL工具,价格不菲,使用难度一般 下载地址:ftp://ftp.seu.edu.cn/Pub/Develop ... taStage.v ...
- linux查找目录下的所有文件中是否含有某个字符串 (转)
查找目录下的所有文件中是否含有某个字符串 find .|xargs grep -ri "IBM" 查找目录下的所有文件中是否含有某个字符串,并且只打印出文件名 find .|xar ...
- Java NIO简单介绍(二)
上一篇<NIO简单介绍(一)>中讲解了NIO中本地IO相关的内容,这篇重点介绍的NIO的非阻塞式网络通信 一.阻塞与非阻塞 传统的 IO 流都是阻塞式的.也就是说,当一个线程调用 read ...
- sql的一些事件处理
select getdate() select Convert(varchar(10),getdate(),120) yyyy-mm-ddselect Convert(varchar(20),getd ...
- SecureCRT上传下载文件教程(Zmodem使用教程)
SecureCRT是一个仿真终端连接工具.它可以方便的连接SSH服务器,远程管理Linux.同时,它还能使用多种协议方便的上传下载文件.其中Zmodem是SecureCRT支持比较好的一种古老的上传下 ...
- django随机验证码
Python生成随机验证码,需要使用PIL模块. 安装: 1 python3.5 -m pip install pillow 基本使用 1. 创建图片 1 2 3 4 5 6 7 8 9 from P ...
- node中express的中间件之cookieParser
cookieParser中间件用于获取web浏览器发送的cookie中的内容.在使用了cookieParser中间件后, 代表客户端请求的htto.IncomingMessage对象就具有了一个coo ...
- setTimeout和setInterval的unref()和ref()用法
var testFunction=function(){ console.log("guoyansi"); } var timer=setInterval(testFunction ...