Spark SQL内置函数
Spark SQL内置函数官网API:http://spark.apache.org/docs/latest/api/scala/index.html#org.apache.spark.sql.functions%24
平常在使用mysql的时候,我们在写SQL的时候会使用到MySQL为我们提供的一些内置函数,如数值函数:求绝对值abs()、平方根sqrt()等,还有其它的字符函数、日期函数、聚合函数等等。使我们利用这些内置函数能够快速实现我们的业务逻辑。在SparkSQL里其实也为我们提供了近两百多种内置函数,我们通过
import org.apache.spark.sql.functions._
导入内置函数包,来使用。也可以在SQL语句中直接使用。SparkSQL内置函数分类:聚合函数、集合函数、日期函数、数学函数、混杂函数、非聚合函数、排序函数、字符串函数、UDF函数和窗口函数这10类函数。
1 内置函数的使用
使用内置函数的方式有两种,一种是通过编程的方式的使用,另一种是通过SQL的方式使用。
例如:我们有如下数据,想要使用SparkSQL内置函数lower()来将名字全部转为小写
+----+---+-----------+
|name|age| phone|
+----+---+-----------+
|Ming| ||
|hong| ||
| zhi| ||
+----+---+-----------+
以编程的方式使用内置函数
import org.apache.spark.sql.functions._
df.select(lower(col("name")).as("name"), col("age"), col("phone")).show()
以SQL的方式使用
df.createOrReplaceTempView("people")
spark.sql("select lower(name) as name,age,phone from people").show()
2 UDF函数的使用
有的时候,SparkSQL提供的内置函数无法满足我们的业务的时候,我们可以使用过UDF函数来自定义我们的实现逻辑。例如:需要对上面的数据添加一列id,要求id的生成是name+随机生成的uuid+phone。这时候我们可以使用UDF自定义函数实现。如下所示:
//根据name和phone生成组合,并加上一段uud生成唯一表示id
def idGenerator(name: String, phone: Long): String = {
name + "-" + UUID.randomUUID().toString + "-" + phone.toString
}
//生成udf函数
val idGeneratorUDF = udf(idGenerator _)
//加入隐式转换
import spark.implicits._
df.withColumn("id", idGeneratorUDF($"name", $"phone")).show()
也可以这样写:
//加入隐式转换
import spark.implicits._
//根据name和phone生成组合,并加上一段uud生成唯一表示id
def idGenerator(name: String, phone: Long): String = {
name + "-" + UUID.randomUUID().toString + "-" + phone.toString
}
//注册udf函数
spark.udf.register("idGenerator",idGenerator _)
//使用idGenerator
df.withColumn("id",callUDF("idGenerator",$"name",$"phone")).show()
结果都是一样的:
+----+---+-----------+--------------------+
|name|age| phone| id|
+----+---+-----------+--------------------+
|Ming| ||Ming-9b87d4d5-91d...|
|hong| ||hong-7a91f7d8-66a...|
| zhi| ||zhi-f005859c-...|
+----+---+-----------+--------------------+
同样,我们可以将我们自定义的UDF函数注册到SparkSQL里,然后用SQL实现
//将自定义函数注册到SparkSQL里
spark.udf.register("idGeneratorUDF",idGeneratorUDF)
//创建临时表
df.createOrReplaceTempView("people")
//使用sql查询
spark.sql("select idGeneratorUDF(name,phone) as id,name,age,phone from people").show()
注意:上面加入import spark.implicits._隐式转换是为了方便使用$”列名”来代替col(“列名”)
完整代码:
import java.util.UUID
import org.apache.spark.sql.SparkSession /**
* spark sql 内置函数
*/
object SparkSQLFunctionApp {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder().appName(this.getClass.getSimpleName).master("local").getOrCreate()
import org.apache.spark.sql.functions._
//加入隐式转换: 本例子里可以使用toDF方法和$"列名"代替col("列名")
import spark.implicits._
val df = Seq(("Ming", , 15552211521L), ("hong", , 13287994007L), ("zhi", , 15552211523L)).toDF("name", "age", "phone")
df.show() /**
* +----+---+-----------+
* |name|age| phone|
* +----+---+-----------+
* |Ming| 20|15552211521|
* |hong| 19|13287994007|
* | zhi| 21|15552211523|
* +----+---+-----------+
*/
//1 使用内置函数将所有名字都转为小写
//1.1 编程的方式:
df.select(lower($"name").as("name"), $"age", $"phone").show() /**
* +----+---+-----------+
* |name|age| phone|
* +----+---+-----------+
* |ming| 20|15552211521|
* |hong| 19|13287994007|
* | zhi| 21|15552211523|
* +----+---+-----------+
*/
//1.2 SQL的方式
//注册表
df.createOrReplaceTempView("people")
spark.sql("select lower(name) as name,age,phone from people").show() /**
* +----+---+-----------+
* |name|age| phone|
* +----+---+-----------+
* |ming| 20|15552211521|
* |hong| 19|13287994007|
* | zhi| 21|15552211523|
* +----+---+-----------+
*/ //2 UDF函数的使用
//2.1 直接使用
//根据name和phone生成组合,并加上一段uud生成唯一表示id
def idGenerator(name: String, phone: Long): String = {
name + "-" + UUID.randomUUID().toString + "-" + phone.toString
} //生成udf函数
val idGeneratorUDF = udf(idGenerator _)
df.withColumn("id", idGeneratorUDF($"name", $"phone")).show() /**
* +----+---+-----------+--------------------+
* |name|age| phone| id|
* +----+---+-----------+--------------------+
* |Ming| 20|15552211521|Ming-74338e40-548...|
* |hong| 19|13287994007|hong-4f058f2b-9d3...|
* | zhi| 21|15552211523|zhi-f42bea86-a9cf...|
* +----+---+-----------+--------------------+
*/
//将自定义函数注册到SparkSQL里
spark.udf.register("idGeneratorUDF", idGeneratorUDF)
//创建临时表
df.createOrReplaceTempView("people")
//使用sql查询
spark.sql("select idGeneratorUDF(name,phone) as id,name,age,phone from people").show() /**
* +----+---+-----------+--------------------+
* |name|age| phone| id|
* +----+---+-----------+--------------------+
* |Ming| 20|15552211521|Ming-74338e40-548...|
* |hong| 19|13287994007|hong-4f058f2b-9d3...|
* | zhi| 21|15552211523|zhi-f42bea86-a9cf...|
* +----+---+-----------+--------------------+
*/
//2.2 通过callUDF使用
//注册udf函数
spark.udf.register("idGenerator", idGenerator _)
//使用idGenerator
df.withColumn("id", callUDF("idGenerator", $"name", $"phone")).show() /**
* +----+---+-----------+--------------------+
* |name|age| phone| id|
* +----+---+-----------+--------------------+
* |Ming| 20|15552211521|Ming-74338e40-548...|
* |hong| 19|13287994007|hong-4f058f2b-9d3...|
* | zhi| 21|15552211523|zhi-f42bea86-a9cf...|
* +----+---+-----------+--------------------+
*/
//创建临时表
df.createOrReplaceTempView("people")
//使用sql查询
spark.sql("select idGenerator(name,phone) as id,name,age,phone from people").show() /**
* +--------------------+----+---+-----------+
* | id|name|age| phone|
* +--------------------+----+---+-----------+
* |Ming-d4236bac-e21...|Ming| 20|15552211521|
* |hong-bff84c0d-67d...|hong| 19|13287994007|
* |zhi-aa0174b0-c8b3...| zhi| 21|15552211523|
* +--------------------+----+---+-----------+
*/
}
}
Spark SQL内置函数的更多相关文章
- sql内置函数pivot强大的行转列功能
原文:sql内置函数pivot强大的行转列功能 语法: PIVOT用于将列值旋转为列名(即行转列),在SQL Server 2000可以用聚合函数配合CASE语句实现 PIVOT的一般语法是:PIVO ...
- [转] Spark sql 内置配置(V2.2)
[From] https://blog.csdn.net/u010990043/article/details/82842995 最近整理了一下spark SQL内置配.加粗配置项是对sparkSQL ...
- 【翻译】Flink Table Api & SQL — 内置函数
本文翻译自官网:Built-In Functions https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/fu ...
- Oracle SQL 内置函数大全
SQL中的单记录函数 1.ASCII 返回与指定的字符对应的十进制数;SQL> select ascii('A') A,ascii('a') a,ascii('0') zero,ascii(' ...
- Oracle SQL 内置函数大全(转)
SQL中的单记录函数 1.ASCII 返回与指定的字符对应的十进制数;SQL> select ascii('A') A,ascii('a') a,ascii('0') zero,ascii(' ...
- Orace内置函数大全[转:http://www.cnblogs.com/lfx0692/articles/2395950.html]
NewProgramer Oracle SQL 内置函数大全(转) SQL中的单记录函数 1.ASCII 返回与指定的字符对应的十进制数;SQL> select ascii('A') A,a ...
- SQL Server 内置函数、临时对象、流程控制
SQL Server 内置函数 日期时间函数 --返回当前系统日期时间 select getdate() as [datetime],sysdatetime() as [datetime2] getd ...
- SQL Server利用RowNumber()内置函数与Over关键字实现通用分页存储过程(支持单表或多表结查集分页)
SQL Server利用RowNumber()内置函数与Over关键字实现通用分页存储过程,支持单表或多表结查集分页,存储过程如下: /******************/ --Author:梦在旅 ...
- Oracle中的内置函数在sql中的转换整理
程序里面经常会即支持Oracle数据库,又支持sql数据库.而有些Oracle内置函数用的比较多,但在sql中语法有些不同,我做了些整理,希望可以帮助大家.... 1.oracle中的内置函数:ora ...
随机推荐
- Spring.NET依赖注入框架学习--入门
Spring.NET依赖注入框架学习--入门 在学些Spring.net框架之前,有必要先脑补一点知识,比如什么是依赖注入?IOC又是什么?控制反转又是什么意思?它们与Spring.net又有什么关系 ...
- Android Selinux
https://blog.csdn.net/rikeyone/article/details/84337115 如何快速定位SElinux问题并修复? https://blog.csdn.net/ ...
- ALTER SEQUENCE 导致 REPLICAT 延时
1.查看OGG线程状态 GGSCI (klcoredb-node1) 46> info all Program Status Group Lag at Chkpt Time Since Chkp ...
- Go学习笔记(一)安装Go语言环境
Go Go 是一个开源的编程语言,它能让构造简单.可靠且高效的软件变得容易. Go是从2007年末由Robert Griesemer, Rob Pike, Ken Thompson主持开发,后来还加入 ...
- 10.20stark组件已经完工
2018-10-20 19:37:31 stark组件已经做完!基本上和Django的admin一样! 放上github连接:https://github.com/TrueNewBee/pythonD ...
- PHP封装类 【 设置分页 】 !!! 可以直接引用 !!! 都有自己理解的注释,挺详细的,有搜到的朋友可以能帮到你们 【 新手一看练两遍就懂 】
在网页要显示出的内容,就是客户能看到的东西 <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" &q ...
- .NET Core开发日志——从搭建开发环境开始
.NET Core自2016年推出1.0版本开始,到目前已是2.1版本,在其roadmap计划里明年更会推出3.0版本,发展不可不谓之迅捷.不少公司在经过一个谨慎的观望期后,也逐步开始将系统升级至最新 ...
- 联想y720 淋了雨,字体变得模糊了
显卡驱动没有问题 重新校准显示器问题解决 事实上,可能是某些软件 扰乱了系统字体,请安装上述来重新调整显示器的字体清晰度
- hive桶表好处
对于每一个表(table)或者分区, Hive可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分.Hive也是针对某一列进行桶的组织.Hive采用对列值哈希,然后除以桶的个数求余的方式决定该条记 ...
- linux:nano 、cat和file
nano 在 Linux 下面编辑文件通常我们会直接使用专门的命令行编辑器比如(emacs,vim,nano),涉及 Linux 上的编辑器的内容比较多,且非常重要. nano 是 linux 的一款 ...