CHAPTER 2 .Summarization Patterns

随着每天都有更多的数据加载进系统,数据量变得很庞大。这一章专注于对你的数据顶层的,概括性意见的设计模式,从而使你能扩展思路,但可能对局部数据是不适用的。概括性的分析都是关于对相似数据的分组和执行统计运算,创建索引,或仅仅为了计数。

通过分组数据集计算聚合排序是一种快速获取结果的好方法。例如,你可能想按某种规则计算出所存的钱的总数,或者按人口计算人们在互联网花费的平均时长。对于新的数据集,你可以开始用这些分析类型帮你计算出数据中什么东西有趣或唯一,和哪些需要仔细研究。

本章的模式有数值聚合,反向索引,和用计数器计数。书中简洁的MapReduce程序比其它的模式要多。这是因为根据key分组数据是MapReduce规范的核心机制:所有key通过分组聚在一起并在reduces端收集。当你把想要分组的字段作为key发送时,分组是MapReduce框架自动处理的。

Numerical Summarizations

Pattern Description

数值聚合模式是一个用于计算细节上的数据的统计值的通用模式,这种模式很容易造成误解。这种模式下,使用combiner和理解要执行的计算非常重要。

Intent

根据key分组记录并每组计算聚合值,可以对大数据集有更高层次的认识。假设θ是我们想要执行的聚合方法,要计算的值是列表values(v1, v2, v3,…,  vn)),要想求出聚合值λ,令:λ=θ(v1, v2, v3, …, vn).θ的种类有最大值,最小值,平均值,中值,标准差。

Motivation

现在对于很多大的数据集,我们手动读它们并得到有意义的信息是很困难的。例如你的网站日志,一个用户每次登陆,键入查询,或执行其他明显的动作,要想靠阅读上TB的文本监控这个用户实时的行为是极其困难的。如果按每天的小时分组,计算每组记录的数量,你将会描绘出数量的直方图,并识别网站的活跃时间。相似的,如果把广告按类型分组,你将会把广告推向更好的市场定位。也许你会基于在一天有效的时间投放循环广告。所有这种类型的问题都可以用数值聚合解决。

Applicability

数值聚合的使用需满足以下两个条件:

1、  处理数值类型数据或做计数。

2、  数据能根据指定字段分组。

Structure

图2-1展示了MapReduce中数值聚合执行的结构图。MapReduce组件每部分都有详细的描述:

Figure 2-1. The structure of the numerical summarizations pattern

•mapper的输出keys由分组的字段组成,values是任意相关数值型的条目。可以假设mapper配置一张关系表,表的列跟要执行θ方法的字段关联,并且每一行都包含mapper输出的记录。Mapper输出的value包含每一列的值,输出key将表作为一个整体,因为每个表都是由MapReduce的分组方法创建的。

Notice:分组会涉及到将大量子数据集发送到到要运行的reduce端,每个输入记录都有可能成为map的输出。确保尽量少的需要分析的数据发送到reduce端,并且处理好坏的输入条件。

•combiner通过数值聚合能有效减少通过网络传给reduce的中间键值对的数目。如果θ方法是关联的并且是可交换的就能达到目的。就是说,如果能任意改变值得顺序和进行任意的分组计算而对最终结果无影响,就可以用combiner。这样的combiner在下面的部分会论述。

•做数值求和时能从自定义partitioner中更好的向若干reduce任务分发键值对受益。这种需求很少,一旦有job执行时间吃紧,数据量庞大,而且有严重数据倾斜时,它能发挥作用。

Notice:自定义的partitioner经常被人们忽略,但是,花时间理解基于此的做分组时输出键的分布和分区会提高性能(还有其它这种情况的)。假如启动一百个reduce任务,80个用30秒完成,其它的用25分钟,这是很低效的。

•reducer接收一系列与根据key分组的记录相关联的数值型values(v1, v2, v3,…, vn),执行方法λ  =θ(v1, v2, v3, …, vn).λ的值同给定的输入key一块输出。

Consequences

Job的输出会由每个reducer输入组生成的包含一条记录的多个文件组成。每条记录包含key和聚合值。

Known uses

Word count:

就是MapReduce的hello world程序。程序对每个单词先输出key为单词,value为整数1,然后根据key分组。Reduce阶段输出每个唯一单词和整数加起来的和。第一章可以看到这个例子。

Record count:

一种常用的根据特定时间周期(周,日,时等)获取数据流量规律的分析方法。

Min/max/count:

一种计算最小,最大值,或特定事件总和的分析。例如,用户第一次发帖时间,最后一次发帖时间,和一段时间内发帖的总数。你不必一次计算出这三个聚合值,其他使用案例也列在这了,如果仅对其中某个感兴趣。

Average/Median/Standard deviation:

跟最大最小求和相似,但不是一种简单的实现,因为操作是不相关的。三个都可以用combiner,但相比单纯重复reduce的逻辑,它们需要一种更复杂的处理过程。

Resemblances

SQL:

数值聚合模式跟sql里分组后再聚合相似:SELECT MIN(numericalcol1),MAX(numericalcol1),COUNT(*)FROM table GROUP BY groupcol2;

Pig:

Group by部分用foreach generate替换:b = GROUP a BY groupcol2;

c = FOREACH b GENERATE group, MIN(a.numericalcol1),

MAX(a.numericalcol1), COUNT_STAR(a);

Performance analysis

如果combiner适当的运用,使用这种模式能让聚合运算能够执行的很好。MapReduce就是为这些种类的工作出现的。跟书中大多数模式一样,开发者需要关注使用适当的reduce的个数并且考虑可能在reduce组里出现的数据倾斜。就是说,如果一个key产生的中间键值对比其他key多,这个key对应的reducer就会比其他reducer执行更多的工作。

Numerical Summarization Examples

Minimum, maximum, and count example

这三种计算都是数值聚合模式的优秀的程序。分组操作以后,reducer端只需要迭代跟分组相关联的值并找到最小,最大和每个key分组的和。由于关联性和可互换性,combiner能极大得减少需要发送的reduce端shffled的中间键值对。如果实现的功能恰当,reducer的代码可以跟combiner一致。

下面每部分代码描述了这种问题的情形。

Problem:给出用户评论内容的列表,得到第一次和最后一次评论时间,和这个用户评论总条数。

Minmaxcounttuple code。

MinMaxCountTuple类有三个属性,并实现writable接口,用于mapper的输出值。当用分隔符把这些值放进一个Text对象,最好创建个自定义的writable。这样不仅整洁,也不必担心从reduce阶段获取这些值是的字符串解析。这种自定义writable对象也普遍用于这种模式下的其他例子。下面就是代码,本章其它writables跟这个类似,为了简介,我们会省略掉。

public classMinMaxCountTuple implementsWritable {

privateDate min =new Date();

privateDate max =new Date();

;

private final staticSimpleDateFormat frmt =new SimpleDateFormat(

"yyyy-MM-dd'T'HH:mm:ss.SSS");

publicDate getMin() {

returnmin;

}

publicvoid setMin(Date min) {

this.min= min;

}

publicDate getMax() {

returnmax;

}

publicvoid setMax(Date max) {

this.max= max;

}

publiclong getCount() {

returncount;

}

publicvoid setCount(longcount) {

this.count= count;

}

publicvoid readFields(DataInput in)throws IOException{

// Read the data out in the order it is written,

// creating new Date objects from the UNIX timestamp

min= newDate(in.readLong());

max= newDate(in.readLong());

count= in.readLong();

}

publicvoid write(DataOutput out)throws IOException{

// Write the data out in the order it is read,

// using the UNIX timestamp to represent the Date

out.writeLong(min.getTime());

out.writeLong(max.getTime());

out.writeLong(count);

}

publicString toString() {

returnfrmt.format(min) +"\t" + frmt.format(max) +"\t" + count;

}

}

Mapper code。Mapper会从每行输入记录(用户id和创建数据)中抽取的xml属性作为输入值,执行预处理。输入键忽略掉,创建数据为了在combiner和reduce中容易比较而转换成java date类型。输出键是用户id,值是将要输出的三个列:最小日期,最大日期,和用户评论的总条数。三个列存在writable类型对象里,前两个时间类型,最后一个long类型。这些对reducer来说很精确,但不会影响到mapper中的使用,我们也希望在mapper和reducer中使用相同的数据类型。在mapper中,设置最小最大创建日期。为了充分发挥随后讲到的combiner的优势,日期输出两次。第三列给计数值1,表明这个用户提交了一条评论。事实上,在reducer阶段,所有的计数会被加到一起,也会算出最大最小日期。

public static classMinMaxCountMapper extends

Mapper<Object,Text, Text, MinMaxCountTuple> {

// Our output key and value Writables

privateText outUserId =new Text();

privateMinMaxCountTuple outTuple =new MinMaxCountTuple();

// This object will format the creation date string into a Date object

private final staticSimpleDateFormat frmt =

newSimpleDateFormat("yyyy-MM-dd'T'HH:mm:ss.SSS");

publicvoid map(Object key,Text value,Context context)

throwsIOException,InterruptedException {

Map<String,String>parsed = transformXmlToMap(value.toString());

// Grab the "CreationDate" field since it is what we are finding

// the min and max value of

String strDate= parsed.get("CreationDate");

// Grab the“UserID” since it is what we are grouping by

String userId= parsed.get("UserId");

// Parse the string into a Date object

Date creationDate= frmt.parse(strDate);

// Set the minimum and maximum date values to the creationDate

outTuple.setMin(creationDate);

outTuple.setMax(creationDate);

// Set the comment count to 1

);

// Set our user ID as the output key

outUserId.set(userId);

// Write out the hour and the average comment length

context.write(outUserId,outTuple);

}

}

Reducer code。Reducer会迭代所有值找出最小,最大日期和统计总和。一开始我们对每个输入组初始化要输出的结果。对组内的每个输入值,如果输出结果的最小值没设定,或比当前输出结果中存的当前最小值小,我们就把这个输入值设置为输出结果的最小值。最大值的逻辑也是这样,唯一不同的是用了大于号。每个值的计数值被加到sum和中,跟word count程序相似。通过所有输入值算出最大最小值以后,最终的计数就是要输出的值。键和值被写到文件系统中。

public static classMinMaxCountReducer extends

Reducer<Text,MinMaxCountTuple,Text, MinMaxCountTuple> {

// Our output value Writable

privateMinMaxCountTuple result =new MinMaxCountTuple();

publicvoid reduce(Text key,Iterable<MinMaxCountTuple>values,

Context context)throws IOException,InterruptedException {

// Initialize our result

result.setMin(null);

result.setMax(null);

);

;

// Iterate through all input values for this key

for(MinMaxCountTuple val: values) {

// If the value's min is less than the result's min

// Set the result's min to value's

if(result.getMin() ==null ||

20 | Chapter 2: Summarization Patterns

) {

result.setMin(val.getMin());

}

// If the value's max is more than the result's max

// Set the result's max to value's

if(result.getMax() ==null ||

) {

result.setMax(val.getMax());

}

// Add to our sum the count for value

sum+= val.getCount();

}

// Set our count to the number of input values

result.setCount(sum);

context.write(key,result);

}

}

Combiner optimization。本例的Reducer正好可以用作job的combiner。因为我们仅仅关心记录条数,最小时间,最大时间。同一个用户的多条记录不必都发送到reducer。在本地map任务上可以先算出最大最小评论日期,这样对最终的值是没有影响的。当计数操作是关联的,并是可交换的时,combiner的使用不会影响计数结果。

Data flow diagram。图2-2给出了mapper,combiner,reducer之间的流程来帮助我们描述他们之间的交互过程。用数值简单的代表日期,概念上是一样的。Combiner很可能执行mapper输出的所有组,决定最大最小值作为前两个列,并分组求和。然后输出最小最大值,和这个心的计数和。如果combiner没有运行在任何记录上,在reducer里仍然是可以计算的。

Figure 2-2. The Min/Max/Count MapReduce data flow through the combiner

Average example

计算平均值,假设在分组里面需要两个值:需要要求和的值的个数和值的总和。这两个值能在reduce端细致的计算。通过遍历集合中的每个值,累加到一个保存总和的变量里。之后,简单的通过计数划分结果,并输出平均值。然而,在这里我们不能用reduce的实现当做combiner,因为平均值的计算是非关联操作。相反,Mapper要输出两列数据,数值个数和平均值。每条输入记录计数1。Reduce通过计数和平均值的成绩获得总和,累加计数作为总的数值个数和。这样通过动态的计数计算动态的数值和,然后输出计数和平均值。使用这种迂回策略,reducer代码就能用作combiner,因为相关性得到了保存。

下面代码描述了这种问题。

问题:给出用户评论数据,计算一天内每个小时评论的长度的平均值。

Mapper code。Mapper将会处理每条输入记录并计算基于时间的评论内容的平均长度。输出键是小时,从xml数据文件属性中可得到。输出值有两列,评论的条数和这一小时内评论的平均长度。因为mapper每次处理一条记录,计数为1,平均长度就是这条评论的长度。这两个值通过自定义的writable类输出,这个类包含两个float数值字段,一个计数字段,还有一个平均值。

public static classAverageMapper extends

Mapper<Object,Text, IntWritable, CountAverageTuple> {

privateIntWritable outHour =new IntWritable();

privateCountAverageTuple outCountAverage = new CountAverageTuple();

private final staticSimpleDateFormat frmt =new SimpleDateFormat(

"yyyy-MM-dd'T'HH:mm:ss.SSS");

publicvoid map(Object key,Text value,Context context)

throwsIOException,InterruptedException {

Map<String,String>parsed = transformXmlToMap(value.toString());

// Grab the "CreationDate" field,

// since it is what we are grouping by

String strDate= parsed.get("CreationDate");

// Grab the comment to find the length

String text= parsed.get("Text");

// get the hour this comment was posted in

Date creationDate= frmt.parse(strDate);

outHour.set(creationDate.getHours());

// get the comment length

);

outCountAverage.setAverage(text.length());

// write out the hour with the comment length

context.write(outHour,outCountAverage);

}

}

Reducer code。Reducer代码迭代某小时内所有值并保存在两个本地变量:动态的count变量和动态的sum变量。对每个值,count乘上平均值加到sum上。Count简单的加到动态count变量里。迭代之后,输入key,动态count,和通过动态count,动态sum计算出来的平均值写到文件中。

public static classAverageReducer extends

Reducer<IntWritable,CountAverageTuple,

IntWritable,CountAverageTuple> {

privateCountAverageTuple result =new CountAverageTuple();

publicvoid reduce(IntWritable key,Iterable<CountAverageTuple>values,

Context context)throws IOException,InterruptedException {

;

;

// Iterate through all input values for this key

for(CountAverageTuple val: values) {

sum+= val.getCount() *val.getAverage();

count+= val.getCount();

}

result.setCount(count);

result.setAverage(sum/ count);

context.write(key,result);

}

}

Combiner optimization。计算平均值时,当reduce代码输出计数和平均值时可以用作combiner。求平均值不是相关联的操作,如果count和平均值(原文为count,本人认为有误)从reducer一块输出,这两个值的乘积可以保存起来用于reduce阶段的sum。如果不输出这个count,combiner就不能用,因为平均数的平均数并不是正确的平均数。一般来说,count和平均值一块写到文件系统不会有问题。然而,如果count妨碍了接下来的分析,那就去掉count,编写一个跟reduce相似的combiner的实现。这两种实现的唯一区别是写不写count。

Data flow diagram。图2-3展示了流程图。

Figure 2-3. Data flow for the average example

摘录地址:http://blog.csdn.net/cuirong1986/article/details/8451336

(转) MapReduce Design Patterns(chapter 2 (part 1))(二)的更多相关文章

  1. MapReduce Design Patterns(chapter 2(part 1))(二)

    随着每天都有更多的数据加载进系统,数据量变得很庞大.这一章专注于对你的数据顶层的,概括性意见的设计模式,从而使你能扩展思路,但可能对局部数据是不适用的.概括性的分析都是关于对相似数据的分组和执行统计运 ...

  2. MapReduce Design Patterns(chapter 1)(一)

    Chapter 1.Design Patterns and MapReduce MapReduce 是一种运行于成百上千台机器上的处理数据的框架,目前被google,Hadoop等多家公司或社区广泛使 ...

  3. MapReduce Design Patterns(chapter 3 (part 1))(五)

    Chapter 3. Filtering Patterns 本章的模式有一个共同点:不会改变原来的记录.这种模式是找到一个数据的子集,或者更小,例如取前十条,或者很大,例如结果去重.这种过滤器模式跟前 ...

  4. MapReduce Design Patterns(chapter 2 (part 3))(四)

    Inverted Index Summarizations Pattern Description 反向索引模式在MapReduce分析中经常作为一个例子.我们将会讨论我们要创建的term跟标识符之间 ...

  5. MapReduce Design Patterns(chapter 2 (part 2))(三)

    Median and standard deviation 中值和标准差的计算比前面的例子复杂一点.因为这种运算是非关联的,它们不是那么容易的能从combiner中获益.中值是将数据集一分为两等份的数 ...

  6. (转)MapReduce Design Patterns(chapter 1)(一)

    翻译的是这本书: Chapter 1.Design Patterns and MapReduce MapReduce 是一种运行于成百上千台机器上的处理数据的框架,目前被google,Hadoop等多 ...

  7. (转)MapReduce Design Patterns(chapter 7 (part 1))(十三)

    CHAPTER 7.Input and Output Patterns 本章关注一个最经常忽略的问题,来改进MapReduce 的value:自定义输入和输出.我们并不会总使用Mapreduce本身的 ...

  8. (转) MapReduce Design Patterns(chapter 5 (part 1))(九)

    Chapter 5. Join Patterns 把数据保存成一个巨大的数据集不是很常见.例如,用户信息数据频繁更新,所以要保存到关系数据库中.于此同时,web日志以恒定的数据流量增加,直接写到HDF ...

  9. (转)MapReduce Design Patterns(chapter 4 (part 1))(七)

    Chapter 4. Data Organization Patterns 与前面章节的过滤器相比,本章是关于数据重组.个别记录的价值通常靠分区,分片,排序成倍增加.特别是在分布式系统中,因为这能提高 ...

  10. (转)MapReduce Design Patterns(chapter 3 (part 1))(五)

    Chapter 3. Filtering Patterns 本章的模式有一个共同点:不会改变原来的记录.这种模式是找到一个数据的子集,或者更小,例如取前十条,或者很大,例如结果去重.这种过滤器模式跟前 ...

随机推荐

  1. Java 线程池Future和FutureTask

    Future表示一个任务的周期,并提供了相应的方法来判断是否已经完成或者取消,以及获取任务的结果和取消任务. Future接口源码: public interface Future<V> ...

  2. java开发中的诡异事件

    1.Excel中的诡异'\r' 2.springMVC中参数莫名的不匹配 今天在使用springmvc测试一个controller方法一直访问失败,400错误,百思不得其解 先是问同事,然后一起讨论了 ...

  3. codeforces 848c - two TVs

    2017-08-22 15:42:44 writer:pprp 参考:http://blog.csdn.net/qq_37497322/article/details/77463376#comment ...

  4. LA 5846 霓虹灯广告牌(单色三角形问题)

    https://vjudge.net/problem/UVALive-5846 题意: 圆周上有n个点,两两相连,只能涂红色或蓝色.求单色三角形的个数. 思路: 这个问题在训练指南105页有详细讲解. ...

  5. Berkeley parser使用方法

    1. 简介  Berkeley Parser 是加州大学伯克利分校 NLP 实验室开发的一种基于概率上下文无关文法(PCFG)的成分句法分析器,支持英语,汉语,德语等多个语种,它具有较高的句法分析性能 ...

  6. 利用hash构建HTML切换

    在Web App和Hybrid App横行的时代,为了拥有更好的用户体验,单页面应用顺势而生,单页面应用简称`SPA`,即Single Page Application,就是只有一个HTML页面的应用 ...

  7. [mybatis]Mapper XML 文件——statementType

    statementType:STATEMENT,PREPARED 或 CALLABLE(存储过程) 的一个.这会让 MyBatis 分别使用 Statement,PreparedStatement 或 ...

  8. idea 2018注册码

    原文:https://blog.csdn.net/zhw0596/article/details/81394870 (最新的看后面!!!    转载的请附上原文链接   搜索不易!)百度的,上一个没用 ...

  9. spring mvc: 可参数化的视图控制器(在配置中指定jsp文件)MultiActionController/SimpleUrlHandlerMapping/ParameterizableViewController

    spring mvc: 可参数化的视图控制器(在配置中指定jsp文件)MultiActionController/SimpleUrlHandlerMapping/ParameterizableView ...

  10. 十四 web爬虫讲解2—Scrapy框架爬虫—豆瓣登录与利用打码接口实现自动识别验证码

    打码接口文件 # -*- coding: cp936 -*- import sys import os from ctypes import * # 下载接口放目录 http://www.yundam ...