1.mapValus(fun):对[K,V]型数据中的V值map操作
(例1):对每个的的年龄加2

  1. object MapValues {
  2. def main(args: Array[String]) {
  3. val conf = new SparkConf().setMaster("local").setAppName("map")
  4. val sc = new SparkContext(conf)
  5. val list = List(("mobin",22),("kpop",20),("lufei",23))
  6. val rdd = sc.parallelize(list)
  7. val mapValuesRDD = rdd.mapValues(_+2)
  8. mapValuesRDD.foreach(println)
  9. }
  10. }

输出:
(mobin,24)
(kpop,22)
(lufei,25)
(RDD依赖图:红色块表示一个RDD区,黑色块表示该分区集合,下同)

2.flatMapValues(fun):对[K,V]型数据中的V值flatmap操作
(例2):

  1. //省略<br>val list = List(("mobin",22),("kpop",20),("lufei",23))
  2. val rdd = sc.parallelize(list)
  3. val mapValuesRDD = rdd.flatMapValues(x => Seq(x,"male"))
  4. mapValuesRDD.foreach(println)

输出:
(mobin,22)
(mobin,male)
(kpop,20)
(kpop,male)
(lufei,23)
(lufei,male)
如果是mapValues会输出:
(mobin,List(22, male))
(kpop,List(20, male))
(lufei,List(23, male))
(RDD依赖图)

3.comineByKey(createCombiner,mergeValue,mergeCombiners,partitioner,mapSideCombine)
 
   comineByKey(createCombiner,mergeValue,mergeCombiners,numPartitions)
 
   comineByKey(createCombiner,mergeValue,mergeCombiners)
 
createCombiner:在第一次遇到Key时创建组合器函数,将RDD数据集中的V类型值转换C类型值(V => C),
如例3:

mergeValue:合并值函数,再次遇到相同的Key时,将createCombiner道理的C类型值与这次传入的V类型值合并成一个C类型值(C,V)=>C,
如例3:

mergeCombiners:合并组合器函数,将C类型值两两合并成一个C类型值
如例3:

partitioner:使用已有的或自定义的分区函数,默认是HashPartitioner
 
mapSideCombine:是否在map端进行Combine操作,默认为true
 
注意前三个函数的参数类型要对应;第一次遇到Key时调用createCombiner,再次遇到相同的Key时调用mergeValue合并值
 
(例3):统计男性和女生的个数,并以(性别,(名字,名字....),个数)的形式输出

  1. object CombineByKey {
  2. def main(args: Array[String]) {
  3. val conf = new SparkConf().setMaster("local").setAppName("combinByKey")
  4. val sc = new SparkContext(conf)
  5. val people = List(("male", "Mobin"), ("male", "Kpop"), ("female", "Lucy"), ("male", "Lufei"), ("female", "Amy"))
  6. val rdd = sc.parallelize(people)
  7. val combinByKeyRDD = rdd.combineByKey(
  8. (x: String) => (List(x), 1),
  9. (peo: (List[String], Int), x : String) => (x :: peo._1, peo._2 + 1),
  10. (sex1: (List[String], Int), sex2: (List[String], Int)) => (sex1._1 ::: sex2._1, sex1._2 + sex2._2))
  11. combinByKeyRDD.foreach(println)
  12. sc.stop()
  13. }
  14. }

输出:
(male,(List(Lufei, Kpop, Mobin),3))
(female,(List(Amy, Lucy),2))
过程分解:

Partition1:
K="male"  -->  ("male","Mobin")  --> createCombiner("Mobin") =>  peo1 = (  List("Mobin") , 1 )
K="male"  -->  ("male","Kpop")  --> mergeValue(peo1,"Kpop") =>  peo2 = (  "Kpop"  ::  peo1_1 , 1 + 1 )    //Key相同调用mergeValue函数对值进行合并
K="female"  -->  ("female","Lucy")  --> createCombiner("Lucy") =>  peo3 = (  List("Lucy") , 1 )
 
Partition2:
K="male"  -->  ("male","Lufei")  --> createCombiner("Lufei") =>  peo4 = (  List("Lufei") , 1 )
K="female"  -->  ("female","Amy")  --> createCombiner("Amy") =>  peo5 = (  List("Amy") , 1 )
 
Merger Partition:
K="male" --> mergeCombiners(peo2,peo4) => (List(Lufei,Kpop,Mobin))
K="female" --> mergeCombiners(peo3,peo5) => (List(Amy,Lucy))

(RDD依赖图)

4.foldByKey(zeroValue)(func)
 
  foldByKey(zeroValue,partitioner)(func)
 
  foldByKey(zeroValue,numPartitiones)(func)
 
foldByKey函数是通过调用CombineByKey函数实现的
 
zeroVale:对V进行初始化,实际上是通过CombineByKey的createCombiner实现的  V =>  (zeroValue,V),再通过func函数映射成新的值,即func(zeroValue,V),如例4可看作对每个V先进行  V=> 2 + V  
 
func: Value将通过func函数按Key值进行合并(实际上是通过CombineByKey的mergeValue,mergeCombiners函数实现的,只不过在这里,这两个函数是相同的)
例4:
//省略

  1. val people = List(("Mobin", 2), ("Mobin", 1), ("Lucy", 2), ("Amy", 1), ("Lucy", 3))
  2. val rdd = sc.parallelize(people)
  3. val foldByKeyRDD = rdd.foldByKey(2)(_+_)
  4. foldByKeyRDD.foreach(println)

输出:
(Amy,2)
(Mobin,4)
(Lucy,6)
先对每个V都加2,再对相同Key的value值相加。
 
 
5.reduceByKey(func,numPartitions):按Key进行分组,使用给定的func函数聚合value值, numPartitions设置分区数,提高作业并行度
例5

//省略

  1. val arr = List(("A",3),("A",2),("B",1),("B",3))
  2. val rdd = sc.parallelize(arr)
  3. val reduceByKeyRDD = rdd.reduceByKey(_ +_)
  4. reduceByKeyRDD.foreach(println)
  5. sc.stop

输出:
(A,5)
(A,4)
(RDD依赖图)

6.groupByKey(numPartitions):按Key进行分组,返回[K,Iterable[V]],numPartitions设置分区数,提高作业并行度
例6:

//省略

  1. val arr = List(("A",1),("B",2),("A",2),("B",3))
  2. val rdd = sc.parallelize(arr)
  3. val groupByKeyRDD = rdd.groupByKey()
  4. groupByKeyRDD.foreach(println)
  5. sc.stop

输出:
(B,CompactBuffer(2, 3))
(A,CompactBuffer(1, 2))
 
以上foldByKey,reduceByKey,groupByKey函数最终都是通过调用combineByKey函数实现的
 
7.sortByKey(accending,numPartitions):返回以Key排序的(K,V)键值对组成的RDD,accending为true时表示升序,为false时表示降序,numPartitions设置分区数,提高作业并行度
例7:

//省略sc

  1. val arr = List(("A",1),("B",2),("A",2),("B",3))
  2. val rdd = sc.parallelize(arr)
  3. val sortByKeyRDD = rdd.sortByKey()
  4. sortByKeyRDD.foreach(println)
  5. sc.stop

输出:
(A,1)
(A,2)
(B,2)
(B,3)
 
8.cogroup(otherDataSet,numPartitions):对两个RDD(如:(K,V)和(K,W))相同Key的元素先分别做聚合,最后返回(K,Iterator<V>,Iterator<W>)形式的RDD,numPartitions设置分区数,提高作业并行度
例8:

//省略

  1. val arr = List(("A", 1), ("B", 2), ("A", 2), ("B", 3))
  2. val arr1 = List(("A", "A1"), ("B", "B1"), ("A", "A2"), ("B", "B2"))
  3. val rdd1 = sc.parallelize(arr, 3)
  4. val rdd2 = sc.parallelize(arr1, 3)
  5. val groupByKeyRDD = rdd1.cogroup(rdd2)
  6. groupByKeyRDD.foreach(println)
  7. sc.stop

输出:
(B,(CompactBuffer(2, 3),CompactBuffer(B1, B2)))
(A,(CompactBuffer(1, 2),CompactBuffer(A1, A2)))
(RDD依赖图)

9.join(otherDataSet,numPartitions):对两个RDD先进行cogroup操作形成新的RDD,再对每个Key下的元素进行笛卡尔积,numPartitions设置分区数,提高作业并行度
例9
//省略

  1. val arr = List(("A", 1), ("B", 2), ("A", 2), ("B", 3))
  2. val arr1 = List(("A", "A1"), ("B", "B1"), ("A", "A2"), ("B", "B2"))
  3. val rdd = sc.parallelize(arr, 3)
  4. val rdd1 = sc.parallelize(arr1, 3)
  5. val groupByKeyRDD = rdd.join(rdd1)
  6. groupByKeyRDD.foreach(println)

输出:

(B,(2,B1))
(B,(2,B2))
(B,(3,B1))
(B,(3,B2))
 
(A,(1,A1))
(A,(1,A2))
(A,(2,A1))
(A,(2,A2)

(RDD依赖图)

10.LeftOutJoin(otherDataSet,numPartitions):左外连接,包含左RDD的所有数据,如果右边没有与之匹配的用None表示,numPartitions设置分区数,提高作业并行度
例10:
//省略

  1. val arr = List(("A", 1), ("B", 2), ("A", 2), ("B", 3),("C",1))
  2. val arr1 = List(("A", "A1"), ("B", "B1"), ("A", "A2"), ("B", "B2"))
  3. val rdd = sc.parallelize(arr, 3)
  4. val rdd1 = sc.parallelize(arr1, 3)
  5. val leftOutJoinRDD = rdd.leftOuterJoin(rdd1)
  6. leftOutJoinRDD .foreach(println)
  7. sc.stop

输出:

(B,(2,Some(B1)))
(B,(2,Some(B2)))
(B,(3,Some(B1)))
(B,(3,Some(B2)))
 
(C,(1,None))
 
(A,(1,Some(A1)))
(A,(1,Some(A2)))
(A,(2,Some(A1)))
(A,(2,Some(A2)))

11.RightOutJoin(otherDataSet, numPartitions):右外连接,包含右RDD的所有数据,如果左边没有与之匹配的用None表示,numPartitions设置分区数,提高作业并行度
例11:
//省略

  1. val arr = List(("A", 1), ("B", 2), ("A", 2), ("B", 3))
  2. val arr1 = List(("A", "A1"), ("B", "B1"), ("A", "A2"), ("B", "B2"),("C","C1"))
  3. val rdd = sc.parallelize(arr, 3)
  4. val rdd1 = sc.parallelize(arr1, 3)
  5. val rightOutJoinRDD = rdd.rightOuterJoin(rdd1)
  6. rightOutJoinRDD.foreach(println)
  7. sc.stop

输出:

(B,(Some(2),B1))
(B,(Some(2),B2))
(B,(Some(3),B1))
(B,(Some(3),B2))
 
(C,(None,C1))
 
(A,(Some(1),A1))
(A,(Some(1),A2))
(A,(Some(2),A1))
(A,(Some(2),A2))

 
0

Spark之键值RDD转换(转载)的更多相关文章

  1. Spark常用函数讲解之键值RDD转换

    摘要: RDD:弹性分布式数据集,是一种特殊集合 ‚ 支持多种来源 ‚ 有容错机制 ‚ 可以被缓存 ‚ 支持并行操作,一个RDD代表一个分区里的数据集RDD有两种操作算子:         Trans ...

  2. Learning Spark 第四章——键值对处理

    本章主要介绍Spark如何处理键值对.K-V RDDs通常用于聚集操作,使用相同的key聚集或者对不同的RDD进行聚集.部分情况下,需要将spark中的数据记录转换为键值对然后进行聚集处理.我们也会对 ...

  3. Learning Spark中文版--第四章--使用键值对(1)

      本章介绍了如何使用键值对RDD,Spark中很多操作都基于此数据类型.键值对RDD通常在聚合操作中使用,而且我们经常做一些初始的ETL(extract(提取),transform(转换)和load ...

  4. Spark笔记:复杂RDD的API的理解(上)

    本篇接着讲解RDD的API,讲解那些不是很容易理解的API,同时本篇文章还将展示如何将外部的函数引入到RDD的API里使用,最后通过对RDD的API深入学习,我们还讲讲一些和RDD开发相关的scala ...

  5. Spark 键值对RDD操作

    键值对的RDD操作与基本RDD操作一样,只是操作的元素由基本类型改为二元组. 概述 键值对RDD是Spark操作中最常用的RDD,它是很多程序的构成要素,因为他们提供了并行操作各个键或跨界点重新进行数 ...

  6. Spark学习之键值对(pair RDD)操作(3)

    Spark学习之键值对(pair RDD)操作(3) 1. 我们通常从一个RDD中提取某些字段(如代表事件时间.用户ID或者其他标识符的字段),并使用这些字段为pair RDD操作中的键. 2. 创建 ...

  7. Spark大数据处理 之 RDD粗粒度转换的威力

    在从WordCount看Spark大数据处理的核心机制(2)中我们看到Spark为了支持迭代和交互式数据挖掘,而明确提出了内存中可重用的数据集RDD.RDD的只读特性,再加上粗粒度转换操作形成的Lin ...

  8. Spark中的键值对操作-scala

    1.PairRDD介绍     Spark为包含键值对类型的RDD提供了一些专有的操作.这些RDD被称为PairRDD.PairRDD提供了并行操作各个键或跨节点重新进行数据分组的操作接口.例如,Pa ...

  9. Spark学习笔记——键值对操作

    键值对 RDD是 Spark 中许多操作所需要的常见数据类型 键值对 RDD 通常用来进行聚合计算.我们一般要先通过一些初始 ETL(抽取.转化.装载)操作来将数据转化为键值对形式. Spark 为包 ...

随机推荐

  1. mysql快速导出数据库ER图和数据字典(附navicat11安装教程及资源)

    ♣ mysql使用navicat11快速导出数据库ER图 ♣ mysql使用navicat11快速导出数据库数据字典 ♣ navicat11 for mysql (这里是mysql5.7.12)专业版 ...

  2. Html中Table的简单使用

    虽然Table布局已经过时,偶尔还是会用到,简要实用代码,如下: <table border="1" cellpadding="0" cellspacin ...

  3. 掌握Thinkphp3.2.0----内置标签

    使用内置标签的时候,一定要注意闭合-----单标签自闭合,双标签对应闭合 标签的学习在于记忆和应用 一. 判断比较 //IF 语句的完整格式 <if condition="$user ...

  4. 掌握Thinkphp3.2.0----视图

    我们将要学习一下 ThinkPHP 视图,视图是 Web 的可见内容,一般是 HTML结合 PHP 获取的数据提供给用户使用的部分,属于 MVC 中的 V 一. 模版定义 默认的模版文件定义规则:视图 ...

  5. linux实践之程序破解

    linux实践之程序破解 这次的实践是文件破解,让我们从login可执行文件开始吧! 首先我们执行一下这个可执行程序 ①我们希望在不知道密码的情况下,能够登陆进去.且无论密码是什么,都是提示“on y ...

  6. 《linux内核设计与实现》读书笔记第十七章

    第17章 设备与模块 四种内核成分 设备类型:在所有 Unix 系统中为了统一普通设备的操作所采用的分类. 模块: Linux 内核中用于按需加载和卸载目标码的机制. 内核对象:内核数据结构中支持面向 ...

  7. SpringMVC常用配置-Controller中的各种配置(基于Java API和注解)

  8. javascript数据结构和算法

    一.栈 javascript实现栈的数据结构(借助javascript数组原生的方法即可) //使用javascript来实现栈的数据结构 var Stack={ //不需要外界传参进行初始化,完全可 ...

  9. eclipse配置项目

    project facets -> dynamic web module 2.5 java -> 1.6 deployment assembly -> webapp Web Proj ...

  10. Computop支付网关(一) credit Card

    1.界面没有中文,只能选择英文 sp – Spanish; en – English; ca – Catalan; fr – French; de – German; du – Dutch; it – ...