dataframe 基本操作
- package com.jason.example
- import org.apache.spark.sql.functions.broadcast
- class DFTest extends SparkInstance {
- import spark.implicits._
- val df = Seq(
- ("jason", , "理想",),
- (null, , "理想",),
- ("mac", , "理想",),
- ("mac", , "理想",)
- ).toDF("name", "depid", "company","groupid").repartition()
- val df3 = Seq(
- ("jason", , "理想",),
- ("dong", , "理想",),
- ("mac", , "理想",)
- ).toDF("name", "depid", "company","groupid").repartition()
- val df2 = Seq(
- (,"周浦",),
- (,"孙桥",),
- (,"金桥",)
- ).toDF("depid","addr","gid").repartition()
- def ff(): Unit = {
- println(df.toString())//[name: string, depid: int ... 1 more field]
- println(df.schema)
- df.printSchema()
- df.explain(true)//Prints the plans (logical and physical) to the console for debugging purposes.
- println(df.dtypes.mkString(","))//(name,StringType),(depid,IntegerType),(company,StringType)
- println(df.columns.mkString(","))//
- //df.withWatermark() ???
- df.show(,false)
- df.na.drop("any"/*"all"*/).show(false) //删除df中包含null 或NaN 的记录,如果为any 则只要有有一列为
- //null 或NaN 则删除整行,如果是all 则所有列是null ho NaN 时才删除整行
- df.na.fill("xxx",Seq("name")).show()//缺失值填充,把null 或 NaN 替换为所需要的值
- df.na.replace("name",Map("jason"->"abc","dong"->"def")).show()//将字段name 中 的值按照map 内容进行更改
- //df.stat.xxx ???
- df.join(df2,(df("depid")===df2("depid")).and(df("groupid")===df2("gid")),"right").show()
- df.join(df2,(df("depid")===df2("depid")).and(df("groupid")===df2("gid")),"left").show()
- df.join(df2,(df("depid")===df2("depid")).and(df("groupid")===df2("gid")),"left").show()
- println("="*)
- df.join(df2.hint("broadcast"),(df("depid")===df2("depid")).and(df("groupid")===df2("gid")),"left").show()
- df.join(broadcast(df2),(df("depid")===df2("depid")).and(df("groupid")===df2("gid")),"left").show()//spark 默认广播10MB的小表
- //df2.hint("broadcast") 和 broadcast(df2) 是等同的
- df.crossJoin(df2).show()//笛卡尔积
- df.sort($"name".desc,$"depid".asc).show()
- df.select("name","depid").show()
- df.selectExpr("name as nm","depid as id").show()
- df.filter(s"""name='jason'""").show()
- df.where(s"""name='jason'""").select("name","depid").show
- df.rollup("name","depid").count().show()
- df.cube("name","depid").count().show()
- df.groupBy("name","depid").count().show()
- df.agg("name"->"max","depid"->"avg").show()
- df.groupBy("name","depid").agg("name"->"max","depid"->"avg").show()
- df.limit().show()
- df.union(df3).show()
- df.unionByName(df3).show()
- df.intersect(df3).show()//交集
- df.except(df3).show() //差集
- df.sample(0.5).show()
- df.randomSplit(Array(0.4,0.6)).apply().show()
- df.withColumn("depid",$"depid".<=()).show() // 该方法可以替换或增加一列到原df, 第二个参数中的col必须时df中的元素
- df.withColumnRenamed("name","姓名").show()
- df.drop("name","depid")//舍弃某几列
- df.distinct()
- df.dropDuplicates("name").show() //根据某几列去重,会保留最后一条数据
- df.describe().show() //count,mean,min,max
- df.summary().show()//count,min,25%,50%,max
- df.head() //所有的数据会被collect到driver
- df.toLocalIterator()
- spark.stop()
- }
- }
- object DFTest {
- def main(args: Array[String]): Unit = {
- val dt = new DFTest
- dt.ff()
- }
- }
dataframe 基本操作的更多相关文章
- DataFrame基本操作
这些操作在网上都可以百度得到,为了便于记忆自己再根据理解总结在一起.---------励志做一个优雅的网上搬运工 1.建立dataframe (1)Dict to Dataframe df = pd. ...
- python做数据分析pandas库介绍之DataFrame基本操作
怎样删除list中空字符? 最简单的方法:new_list = [ x for x in li if x != '' ] 这一部分主要学习pandas中基于前面两种数据结构的基本操作. 设有DataF ...
- 用python做数据分析pandas库介绍之DataFrame基本操作
怎样删除list中空字符? 最简单的方法:new_list = [ x for x in li if x != '' ] 这一部分主要学习pandas中基于前面两种数据结构的基本操作. 设有DataF ...
- pandas库介绍之DataFrame基本操作
怎样删除list中空字符? 最简单的方法:new_list = [ x for x in li if x != '' ] 今天是5.1号. 这一部分主要学习pandas中基于前面两种数据结构的基本操作 ...
- 用python做数据分析4|pandas库介绍之DataFrame基本操作
原文地址 怎样删除list中空字符? 最简单的方法:new_list = [ x for x in li if x != '' ] 今天是5.1号. 这一部分主要学习pandas中基于前面两种数据结构 ...
- 机器学习三剑客之Pandas中DataFrame基本操作
Pandas 是基于Numpy 的一种工具,是为了解决数据分析任务而创建的.Pandas 纳入了大量库和一些标准的数据模型,提供了高效地操作大型数据集所需的工具.Pandas提供了大量能使我们快速便捷 ...
- pd库dataframe基本操作
一.查看数据(查看对象的方法对于Series来说同样适用) 1.查看DataFrame前xx行或后xx行 a=DataFrame(data); a.head(6)表示显示前6行数据,若head()中不 ...
- pyspark SparkSession及dataframe基本操作
from pyspark import SparkContext, SparkConf import os from pyspark.sql.session import SparkSession f ...
- python数据类型之pandas—DataFrame
DataFrame定义: DataFrame是pandas的两个主要数据结构之一,另一个是Series —一个表格型的数据结构 —含有一组有序的列 —大致可看成共享同一个index的Series集合 ...
随机推荐
- background 设置文本框背景图
background 属性的作用是给元素设置背景,它是一个复合属性,常用的子属性如下: background-color 指定元素的背景颜色. background-image 指定元素的背景图像. ...
- Python - 获取本机IP地址、Mac地址
Python - 获取本机IP地址.Mac地址 在python中获取ip地址和在php中有很大不同,在php中往往比较简单.那再python中怎么做呢? 直接看代码: # Python - 获取本机I ...
- Java学习——枚举类
Java学习——枚举类 摘要:本文主要介绍了Java的枚举类. 部分内容来自以下博客: https://www.cnblogs.com/sister/p/4700702.html https://bl ...
- 图书推荐《图解HTTP》
作品简介 本书对互联网基盘——HTTP协议进行了全面系统的介绍.作者由HTTP协议的发展历史娓娓道来,严谨细致地剖析了HTTP协议的结构,列举诸多常见通信场景及实战案例,最后延伸到Web安全.最新技术 ...
- colmap编译过程中出现,无法解析的外部符号错误 “__cdecl google::base::CheckOpMessageBuilder::ForVar1(void)”
错误提示: >colmap.lib(matching.obj) : error LNK2019: 无法解析的外部符号 "__declspec(dllimport) public: cl ...
- vue学习指南:第十篇(详细) - Vue的 动画
Vue 提供了一些不同的过度效果,主要根 v-if v-show 动态组件 1. Vue给动画分了6个过程,在css中,扮演6个类, 1. .v-enter定义动画的开始状态 2. .v-ente ...
- 章节十四、3-执行JavaScript命令
一.网页页面都是由html+css和javaScript组成的,如果页面中没有javaScript的存在,就不会有操作动作的执行,例如页面上你点击的按钮或者链接都离不开javaScript.(这一节不 ...
- Properties类按顺序输出加载内容
Properties类按顺序输出加载内容 最近手写工厂的时候,遇到了加载配置文件时不按照properties文件中的数据的顺序来加载. 一.问题代码 import java.io.IOExceptio ...
- linux 重启 网络服务
设置网路ip等后 需要重启网路服务 debian: /etc/iinit.d/networking restart centos7: service network restart or syste ...
- Linux framebuffer deferred io机制【转】
转自:https://www.cnblogs.com/vedic/p/10722514.html 一.总体框架 deferred io机制主要用于驱动没有实现自刷新同时应用层又不想调用FBIOPAN_ ...