spark2.2 DataFrame的一些算子操作
本文持续更新中。。。
Spark Session中的DataFrame类似于一张关系型数据表。在关系型数据库中对单表或进行的查询操作,在DataFrame中都可以通过调用其API接口来实现。
可以参考,Scala提供的DataFrame API。本文将使用SparkSession进行操作。
一、DataFrame对象的生成
val ss = SparkSession.builder()
.appName("ta")
.master("local[4]")
.config("spark.mongodb.input.uri","mongodb://username:password@192.168.1.3:27017/log.")
.config("spark.mongodb.output.uri","mongodb://username:password@192.168.1.3:27017/log")
.config("es.index.auto.create", "true")
.config("es.nodes","192.168.1.1")
.config("es.port","9200")
.getOrCreate()
1.读写mysql数据
val url = "jdbc:mysql://m000:3306/test"
val jdbcDF = ss.read.format( "jdbc" ).options(Map( "url" -> url,"user" -> "xxx","password" -> "xxx", "dbtable" -> "xxx" )).load()
data2DF.write.mode("overwrite").format("jdbc").options(Map("url" ->url, "dbtable" -> "TableName")).save()
2.读写SqlServer数据
val sqlUrl="jdbc:sqlserver://192.168.1.3:1433;DatabaseName=mytable;username=xxxx;password=xxx"
val data2DF = ss.read.format("jdbc").options( Map("url" -> sqlsUrl, "dbtable" -> "TableName")).load()
data2DF.write.mode("overwrite").format("jdbc").options(Map("url" ->sqlUrl, "dbtable" -> "TableName")).save()
3.读写MongoDB数据
import com.mongodb.spark._
import com.mongodb.spark.config.ReadConfig
读取
val data1DF = MongoSpark.load(ss, ReadConfig(Map("collection" -> "TableName"), Some(ReadConfig(ss))))
val data2=ss.sparkContext.loadFromMongoDB(ReadConfig(Map("uri" -> readUrl))).toDF()
第一种方式适用于读取同一个库中的数据,当在不同库中读取数据时,可以使用第二种
MongoSpark.save(datas.write.option("collection", "documentName").mode("append"))
4.读写ES数据
import org.elasticsearch.spark.sql._
ss.esDF("/spark_applog/applog")
df.saveToEs("/spark_applog/applog")
二、DataFrame对象上Action操作
1、show
:展示数据
以表格的形式在输出中展示jdbcDF
中的数据,类似于select * from spark_sql_test
的功能。
show
方法有四种调用方式,分别为,
(1)show
只显示前20条记录。且过长的字符串会被截取
示例:jdbcDF.show
(2)show(numRows: Int)
显示numRows
条
示例:jdbcDF.show(3)
(3)show(truncate: Boolean)
是否截取20个字符,默认为true
。
示例:jdbcDF.show(false)
(4)show(numRows: Int, truncate: Int)
显示记录条数,以及截取字符个数,为0时表示不截取
示例:jdbcDF.show(3, 0)
2、collect
:获取所有数据到数组
不同于前面的show
方法,这里的collect
方法会将jdbcDF
中的所有数据都获取到,并返回一个Array
对象。
jdbcDF.collect()
结果数组包含了jdbcDF
的每一条记录,每一条记录由一个GenericRowWithSchema
对象来表示,可以存储字段名及字段值。
3、collectAsList
:获取所有数据到List
功能和collect
类似,只不过将返回结构变成了List
对象,使用方法如下
jdbcDF.collectAsList()
4、describe(cols: String*)
:获取指定字段的统计信息
这个方法可以动态的传入一个或多个String
类型的字段名,结果仍然为DataFrame
对象,用于统计数值类型字段的统计值,比如count, mean, stddev, min, max
等。
使用方法如下,其中c1
字段为字符类型,c2
字段为整型,c4
字段为浮点型
jdbcDF .describe("c1" , "c2", "c4" ).show()
结果如下,
5、first, head, take, takeAsList
:获取若干行记录
这里列出的四个方法比较类似,其中
(1)first
获取第一行记录
(2)head
获取第一行记录,head(n: Int)
获取前n行记录
(3)take(n: Int)
获取前n行数据
(4)takeAsList(n: Int)
获取前n行数据,并以List
的形式展现
以Row
或者Array[Row]
的形式返回一行或多行数据。first
和head
功能相同。
take
和takeAsList
方法会将获得到的数据返回到Driver端,所以,使用这两个方法时需要注意数据量,以免Driver发生OutOfMemoryError
使用和结果略。
三、DataFrame对象上的条件查询和join等操作
以下返回为DataFrame类型的方法,可以连续调用。
1、where条件相关
(1)where(conditionExpr: String)
:SQL语言中where关键字后的条件
传入筛选条件表达式,可以用and
和or
。得到DataFrame类型的返回结果,
示例:
jdbcDF .where("id = 1 or c1 = 'b'" ).show()
结果,
(2)filter
:根据字段进行筛选
传入筛选条件表达式,得到DataFrame类型的返回结果。和where
使用条件相同
示例:jdbcDF .filter("id = 1 or c1 = 'b'" ).show()
2、查询指定字段
(1)select
:获取指定字段值
根据传入的String
类型字段名,获取指定字段的值,以DataFrame类型返回
示例:
jdbcDF.select( "id" , "c3" )
还有一个重载的select
方法,不是传入String
类型参数,而是传入Column
类型参数。可以实现select id, id+1 from test
这种逻辑。
jdbcDF.select(jdbcDF( "id" ), jdbcDF( "id") + 1 ).show( false)
结果:
能得到Column
类型的方法是apply
以及col
方法,一般用apply
方法更简便。
(2)selectExpr
:可以对指定字段进行特殊处理
可以直接对指定字段调用UDF函数,或者指定别名等。传入String
类型参数,得到DataFrame对象。
示例,查询id
字段,c3
字段取别名time
,c4
字段四舍五入:
jdbcDF .selectExpr("id" , "c3 as time" , "round(c4)" ).show(false)
结果,
(3)col
:获取指定字段
只能获取一个字段,返回对象为Column类型。
val idCol = jdbcDF.col(“id”)
(4)apply
:获取指定字段
只能获取一个字段,返回对象为Column类型
示例:
val idCol1 = jdbcDF.apply("id")
val idCol2 = jdbcDF("id")
(5)drop
:去除指定字段,保留其他字段
返回一个新的DataFrame对象,其中不包含去除的字段,一次只能去除一个字段。
示例:
jdbcDF.drop("id")
jdbcDF.drop(jdbcDF("id"))
3、limit
limit
方法获取指定DataFrame的前n行记录,得到一个新的DataFrame对象。和take
与head
不同的是,limit
方法不是Action操作。
jdbcDF.limit(3)
4、order by
(1)orderBy
和sort
:按指定字段排序,默认为升序
示例1,按指定字段排序。加个-
表示降序排序。sort
和orderBy
使用方法相同
jdbcDF.orderBy(- jdbcDF("c4")).show(false) 只能对数字类型和日期类型生效
// 或者
jdbcDF.orderBy(jdbcDF("c4").desc).show(false)
结果,
(2)sortWithinPartitions
和上面的sort
方法功能类似,区别在于sortWithinPartitions
方法返回的是按Partition排好序的DataFrame对象。
5、group by
(1)groupBy
:根据字段进行group by
操作
groupBy
方法有两种调用方式,可以传入String
类型的字段名,也可传入Column
类型的对象。
使用方法如下,
jdbcDF .groupBy("c1" )
jdbcDF.groupBy( jdbcDF( "c1"))
(2)cube
和rollup
:group by的扩展
功能类似于SQL
中的group by cube/rollup
原表:
cube: mst.cube("name","class").sum("score").show()
rollup: mst.rollup("name","class").sum("score").show()
(3)GroupedData对象
该方法得到的是GroupedData
类型对象,在GroupedData
的API中提供了group by
之后的操作,比如,
max(colNames: String*)
方法,获取分组中指定字段或者所有的数字类型字段的最大值,只能作用于数字型字段min(colNames: String*)
方法,获取分组中指定字段或者所有的数字类型字段的最小值,只能作用于数字型字段mean(colNames: String*)
方法,获取分组中指定字段或者所有的数字类型字段的平均值,只能作用于数字型字段sum(colNames: String*)
方法,获取分组中指定字段或者所有的数字类型字段的和值,只能作用于数字型字段count()
方法,获取分组中的元素个数运行结果示例:
count
max
这里面比较复杂的是以下两个方法,
agg
,该方法和下面介绍的类似,可以用于对指定字段进行聚合操作。
pivot
6、distinct
(1)distinct
:返回一个不包含重复记录的DataFrame
返回当前DataFrame中不重复的Row记录。该方法和接下来的dropDuplicates()
方法不传入指定字段时的结果相同。
示例:
jdbcDF.distinct()
结果,
(2)dropDuplicates
:根据指定字段去重
根据指定字段去重。类似于select distinct a, b
操作
示例:
jdbcDF.dropDuplicates(Seq("c1"))
结果:
7、聚合
聚合操作调用的是agg
方法,该方法有多种调用方式。一般与groupBy
方法配合使用。
以下示例其中最简单直观的一种用法,对id
字段求最大值,对c4
字段求和。
jdbcDF.agg("id" -> "max", "c4" -> "sum")
结果:
8、union
union
方法:对两个DataFrame进行合并
示例:
jdbcDF.union(jdbcDF.limit(1))
结果:
9、join
重点来了。在SQL
语言中用得很多的就是join
操作,DataFrame中同样也提供了join
的功能。
接下来隆重介绍join
方法。在DataFrame中提供了六个重载的join
方法。
(1)、笛卡尔积
joinDF1.join(joinDF2)
(2)、using
一个字段形式
下面这种join类似于a join b using column1
的形式,需要两个DataFrame中有相同的一个列名,
joinDF1.join(joinDF2, "id")
(3)、using
多个字段形式
除了上面这种using
一个字段的情况外,还可以using
多个字段,如下
joinDF1.join(joinDF2, Seq("id", "name"))
(4)、指定join
类型
在上面的using
多个字段的join情况下,可以写第三个String
类型参数,指定join
的类型,如下所示
inner:内连
outer,full,full_outer:全连
left, left_outer:左连
right,right_outer:右连
left_semi:过滤出joinDF1中和joinDF2共有的部分
left_anti:过滤出joinDF1中joinDF2没有的部分
joinDF1.join(joinDF2, Seq("id", "name"), "inner")
(5)、使用Column
类型来join
如果不用using
模式,灵活指定join
字段的话,可以使用如下形式
joinDF1.join(joinDF2 , joinDF1("id" ) === joinDF2( "t1_id"))
结果如下,
(6)、在指定join
字段同时指定join
类型
如下所示
joinDF1.join(joinDF2 , joinDF1("id" ) === joinDF2( "t1_id"), "inner")
10、获取指定字段统计信息
stat
方法可以用于计算指定字段或指定字段之间的统计信息,比如方差,协方差等。这个方法返回一个DataFramesStatFunctions
类型对象。
下面代码演示根据c4
字段,统计该字段值出现频率在30%
以上的内容。在jdbcDF
中字段c1
的内容为"a, b, a, c, d, b"
。其中a
和b
出现的频率为2 / 6
,大于0.3
jdbcDF.stat.freqItems(Seq ("c1") , 0.3).show()
结果如下:
11、获取两个DataFrame中共有的记录
intersect
方法可以计算出两个DataFrame中相同的记录,
jdbcDF.intersect(jdbcDF.limit(1)).show(false)
结果如下:
12、获取一个DataFrame中有另一个DataFrame中没有的记录
示例:
jdbcDF.except(jdbcDF.limit(1)).show(false)
结果如下,
13、操作字段名
(1)withColumnRenamed
:重命名DataFrame中的指定字段名
如果指定的字段名不存在,不进行任何操作。下面示例中将jdbcDF
中的id
字段重命名为idx
。
jdbcDF.withColumnRenamed( "id" , "idx" )
结果如下:
(2)withColumn
:往当前DataFrame中新增一列
whtiColumn(colName: String , col: Column)
方法根据指定colName
往DataFrame中新增一列,如果colName
已存在,则会覆盖当前列。
以下代码往jdbcDF
中新增一个名为id2
的列,
jdbcDF.withColumn("id2", jdbcDF("id")).show( false)
结果如下,
14、行转列
有时候需要根据某个字段内容进行分割,然后生成多行,这时可以使用explode
方法
下面代码中,根据c3
字段中的空格将字段内容进行分割,分割的内容存储在新的字段c3_
中,如下所示
jdbcDF.explode( "c3" , "c3_" ){time: String => time.split( " " )}
结果如下,
spark2.2 DataFrame的一些算子操作的更多相关文章
- Spark 2.2 DataFrame的一些算子操作
Spark Session中的DataFrame类似于一张关系型数据表.在关系型数据库中对单表或进行的查询操作,在DataFrame中都可以通过调用其API接口来实现. 可以参考,Scala提供的Da ...
- sparkRDD:第3节 RDD常用的算子操作
4. RDD编程API 4.1 RDD的算子分类 Transformation(转换):根据数据集创建一个新的数据集,计算后返回一个新RDD:例如:一个rdd进行map操作后生了一个新的rd ...
- SparkStreaming算子操作,Output操作
SparkStreaming练习之StreamingTest,UpdateStateByKey,WindowOperator 一.SparkStreaming算子操作 1.1 foreachRDD 1 ...
- 【Spark篇】---SparkStreaming算子操作transform和updateStateByKey
一.前述 今天分享一篇SparkStreaming常用的算子transform和updateStateByKey. 可以通过transform算子,对Dstream做RDD到RDD的任意操作.其实就是 ...
- 【SparkStreaming学习之二】 SparkStreaming算子操作
环境 虚拟机:VMware 10 Linux版本:CentOS-6.5-x86_64 客户端:Xshell4 FTP:Xftp4 jdk1.8 scala-2.10.4(依赖jdk1.8) spark ...
- spark2.3.0 配置spark sql 操作hive
spark可以通过读取hive的元数据来兼容hive,读取hive的表数据,然后在spark引擎中进行sql统计分析,从而,通过spark sql与hive结合实现数据分析将成为一种最佳实践.配置步骤 ...
- Spark中的各种action算子操作(java版)
在我看来,Spark编程中的action算子的作用就像一个触发器,用来触发之前的transformation算子.transformation操作具有懒加载的特性,你定义完操作之后并不会立即加载,只有 ...
- 【Spark】DataFrame关于数据常用操作
文章目录 DSL语法 概述 实例操作 SQL语法 概述 实例操作 DSL语法 概述 1.查看全表数据 -- DataFrame.show 2.查看部分字段数据(有4种方法) (1) DataFram ...
- Flink中的算子操作
一.Connect DataStream,DataStream -> ConnectedStream,连接两个保持他们类型的数据流,两个数据流被Connect之后,只是被放在了同一个流中,内部 ...
随机推荐
- C#控件基础
在说控件之前,还是有必要说一下如何创建项目的. 现在我们就不用创建控制台应用程序了,而是文件>新建>C#>Windows窗体应用程序.名称,位置自己选择. 创建好了大致就是这样了,可 ...
- ubuntu下MySQL修改root密码的多种方法,phpmyadmin空密码无法登陆的解决方法
phpmyadmin是默认不允许使用空密码的,所以若是在安装时没有设置密码,在登陆phpmyadmin时是个很头疼的问题 方法1是修改phpmyadmin的配置文件,这里不做推荐.. 方法2: php ...
- android 统计启动时长,标准
一.启动的类型 冷启 动,application没有被创建,需要先创建进程,然后启动MainActivity.由于这个过程需要fork一个新进程,所以耗时. 热启动,同上面对照,已经启动过applic ...
- Java8系列之初识
前言:终于有机会在工作中使用高版本的Java8,但是一直没有对java8中添加的新特性进一步了解过,所以趁着这个机会学习一下,能够在编程中熟练的使用. 一.接口的改变 我们知道,在java8版本以前, ...
- SPARK 创建新任务
1.应用程序创建 SparkContext 的实例 sc 2.利用 SparkContext 的实例来创建生成 RDD 3.经过一连串的 transformation 操作,原始的 RDD 转换成为其 ...
- QQ顶部的消息,联系人切换
高仿ios SegmentView 以前做过的一个项目美工设计的页面包含这个控件,和QQ消息页面顶部的效果一样,其实,这个控件是ios7的分段控制,android没有这个控件,不过实现起来也比较简单, ...
- jstl 中 <c:foreach> 多级循环
- 初识Http协议抓包工具—Fiddler
1.Fiddler简介 Fiddler是用一款使用C#编写的http协议调试代理工具.它支持众多的http调试任务,能够记录并检查所有你的电脑和互联网之间的http通讯,可以设置断点,查看所有的“进出 ...
- 使用SQL语句时应该注意的一些问题
DECLARE @Where NVARCHAR(max); SET @Where=''; --初始查询条件 SET @Where+=' '; 1.当要对变量使用 "+="时,需要先 ...
- ASP.NET Core的身份认证框架IdentityServer4(6)- 开始
安装和概述 启动一个新的IdentityServer项目有两种基本方法: 从头开始 从Visual Studio中的ASP.NET身份模板开始 如果从头开始,我们提供了一些文档.项目帮助和内存存储支持 ...