Hadoop学习笔记(2) 关于MapReduce
1. 查找历年最高的温度。
MapReduce任务过程被分为两个处理阶段:map阶段和reduce阶段。每个阶段都以键/值对作为输入和输出,并由程序员选择它们的类型。程序员还需具体定义两个函数:map函数和reduce函数。
对应的Java MapReduce代码如下:
- public class MaxTemperature{
- static class MaxTemperatureMapper
- extends Mapper<LongWritable,Text,Text,IntWritable>{
- public void map(LongWritable key, Text value,Context context)
- throws IOException,InterruptedException{
- String line = value.toString();
- String year = line.substring(15,19);
- int airTemperature;
- if(line.charAt(87) == '+'){
- airTemperature = Integer.parseInt(line.substring(88, 92));
- } else {
- airTemperature = Integer.parseInt(line.substring(87, 92));
- }
- String quality = line.substring(92, 93);
- if(airTemperature != MISSING && quality.matches("[01459]")){
- context.write(new Text(year),new IntWritable(airTemperature));
- }
- }
- }
- static class MaxTemperatureReducer
- extends Reduce<Text,IntWritable,Text,IntWritable>{
- public void reduce(Text key,Iterable<IntWritable> values,
- Context context) throws IOException,InterruptedException{
- int maxValue = Inerger.MIN_VALUE;
- for(IntWritable value : values){
- maxValue = Math.max(maxValue,value.get());
- }
- context.write(key,new IntWritable(maxValue));
- }
- }
- public static void main(String[] args) throws Exception{
- if(args.length != 2){
- System.out.println("Usage: MaxTemperature <input path> <output path>");
- System.exit(-1);
- }
- Job job = new Job();
- job.setJarByClass(MaxTemperature.class);
- FileInputFormat.addInputPath(job,new Path(args[0]));
- FileOutputFormat.setOutputPath(job,new Path(args[1]));
- job.setMapperClass(MaxTemperatureMapper.class);
- job.setReducerClass(MaxTemperatureReducer.class);
- job.setOutputKeyClass(Text.class);
- job.setOutputValueClass(IntWritable.class);
- System.exit(job.waitForCompletion(true)?0:1);
- }
- }
2. 为了实现横向扩展,需要把数据存储在分布式文件系统HDFS中,由此允许hadoop将MapReduce计算移到存储有部分数据的各台机器上。
(1) 一个reduce任务的MapReduce数据流
MapReduce作业(job)是客户端需要执行的一个工作单元:包括输入数据、MapReduce程序和配置信息。Hadoop将作业分成若干个小任务(task)来执行,其中包括两类任务:map任务和reduce任务。
有两类节点控制着作业执行过程:一个jobtracker及一系列tasktracker。jobtracker通过调度tasktracker上运行的任务,来协调所有运行在系统上的作业。tasktracker在运行任务的同时将运行进度报告发送给jobtracker,jobtracker由此记录每项作业任务的整体进度情况。如果其中一个任务失败,jobtracker由此在另外一个tasktracker节点上重新调度该任务。
Hadoop将MapReduce的输入数据划分成等长的小数据块,成为输入分片(input split)。Hadoop为每个分片构建一个map任务,并由该任务来运行用户自定义的map函数从而处理分片中的每条记录。
如果我们并行处理每个分片,且每个分片数据比较小,那么整个处理过程将获得更好的负载平衡。对于大多数作业来说,一个合理的分片大小趋向于HDFS的一个块的大小,默认是64M。
Hadoop在存储有输入数据(HDFS中的数据)的节点上运行map任务,可以获得最佳的性能,这就是所谓的数据本地化优化(data locality optimization)。最佳分片的大小应该与块大小相同,因为它是确保可以存储在单个节点上的最大输入块的大小。如果分片跨越两个数据块,那么对于任何一个HDFS节点,基本上都不可能同时存储这两个数据块,因此分片中的部分数据需通过网络传输到map任务节点。
map任务将其输出写入本地硬盘,而非HDFS,因为map的输出结果是中间结果,该中间结果由reduce任务处理后才产生最终输出结果,而一旦作业完成,map的输出结果可以被删除。因此,如果把它存储在HDFS中并实现备份难免有些小题大做。如果该节点上运行的map任务在map中间结果传送给reduce任务之前失败,Hadoop将在另一个节点上重新运行这个map任务以再次构建map中间结果。
reduce任务并不具备数据本地化的优势-单个reduce任务的输入通常来自于所有mapper的输出。因此,上例中排过序的map输出需要通过网络传输发送到运行reduce任务的节点。数据在reduce端合并,然后由用户定义的reduce函数处理。reduce的输出通常存储在HDFS中以实现可靠存储。对于每个reduce输出的HDFS数据块,第一个复本存储在本地节点上,其他复本存储在其他机架节点中。
(2) 多个reduce任务的数据流
reduce任务的数量并非由输入数据的大小决定,而是特别指定的。如果有多个reduce任务,则每个map任务都会对其输出进行分区,即为每个reduce任务建一个分区。每个分区有许多键(及其对应值),但每个键对应的键/值对都在同一个分区中,分区由用户定义的分区函数控制,但通常用默认的分区器通过哈希函数来区分。
(3) 无reduce任务的MapReduce数据流
在这种情况下,唯一的非本地节点数据传输是map任务将结果写入HDFS。
3. combiner
集群上的可用带宽限制了MapReduce作业的数量,因此尽量避免map任务和reduce任务之间的数据传输。Hadoop允许用户针对map任务的输出指定一个合并函数——合并函数的输出作为reduce函数的输入。Hadoop无法确定针对map任务输出中任一条记录需要调用多少次合并函数。
例:计算最高温度的例子中,1950年的读数由两个map任务处理。假设第一个map的输出为:(1950,0),(1950,20),(1950,10),第二个map的输出为:(1950,25),(1950,15),reduce函数被调用时,输出:(1950,[0 20 10 25 15]),因此reduce函数的输出为(1950,25)。
我们可以像使用reduce函数那样,使用合并函数找出每个map任务输出结果中的最高温度,则reduce函数调用时将被传入:(1950,[20,25])
使用合并函数快速找出最高气温的代码:
- public class MaxTemperatureWithCombiner{
- public static void main(String[] args) throws IOException{
- if(args.length != 2){
- System.out.println("Usage: MaxTemperatureWithCombiner <input path> <output path>");
- System.exit(-1);
- }
- JobConf conf = new JobConf(MaxTemperatureWithCombiner.class);
- conf.setJobName("Max Temperature");
- FileInputFormat.addInputPath(conf,new Path(args[0]));
- FileOutputFormat.setOutputPath(conf,new Path(args[1]));
- conf.setMapperClass(MaxTemperatureMapper.class);
- conf.setReducerClass(MaxTemperatureReducer.class);
- conf.setCombinerClass(MaxTemperatureReducer.class);
- conf.setOutputKeyClass(Text.class);
- conf.setOutputValueClass(IntWritable.class);
- JobClient.runJob(conf);
- }
- }
4. Hadoop的Streaming
Hadoop的Streaming使用unix标准流作为Hadoop和应用程序之间的接口,所以我们可以使用任何编程语言通过标准输入/输出来写MapReduce程序。
Hadoop学习笔记(2) 关于MapReduce的更多相关文章
- Hadoop 学习笔记3 Develping MapReduce
小笔记: Mavon是一种项目管理工具,通过xml配置来设置项目信息. Mavon POM(project of model). Steps: 1. set up and configure the ...
- Hadoop学习笔记—4.初识MapReduce
一.神马是高大上的MapReduce MapReduce是Google的一项重要技术,它首先是一个编程模型,用以进行大数据量的计算.对于大数据量的计算,通常采用的处理手法就是并行计算.但对许多开发者来 ...
- Hadoop学习笔记—22.Hadoop2.x环境搭建与配置
自从2015年花了2个多月时间把Hadoop1.x的学习教程学习了一遍,对Hadoop这个神奇的小象有了一个初步的了解,还对每次学习的内容进行了总结,也形成了我的一个博文系列<Hadoop学习笔 ...
- Hadoop学习笔记(7) ——高级编程
Hadoop学习笔记(7) ——高级编程 从前面的学习中,我们了解到了MapReduce整个过程需要经过以下几个步骤: 1.输入(input):将输入数据分成一个个split,并将split进一步拆成 ...
- Hadoop学习笔记(6) ——重新认识Hadoop
Hadoop学习笔记(6) ——重新认识Hadoop 之前,我们把hadoop从下载包部署到编写了helloworld,看到了结果.现是得开始稍微更深入地了解hadoop了. Hadoop包含了两大功 ...
- Hadoop学习笔记(2)
Hadoop学习笔记(2) ——解读Hello World 上一章中,我们把hadoop下载.安装.运行起来,最后还执行了一个Hello world程序,看到了结果.现在我们就来解读一下这个Hello ...
- Hadoop学习笔记(5) ——编写HelloWorld(2)
Hadoop学习笔记(5) ——编写HelloWorld(2) 前面我们写了一个Hadoop程序,并让它跑起来了.但想想不对啊,Hadoop不是有两块功能么,DFS和MapReduce.没错,上一节我 ...
- Hadoop学习笔记(2) ——解读Hello World
Hadoop学习笔记(2) ——解读Hello World 上一章中,我们把hadoop下载.安装.运行起来,最后还执行了一个Hello world程序,看到了结果.现在我们就来解读一下这个Hello ...
- Hadoop学习笔记(1) ——菜鸟入门
Hadoop学习笔记(1) ——菜鸟入门 Hadoop是什么?先问一下百度吧: [百度百科]一个分布式系统基础架构,由Apache基金会所开发.用户可以在不了解分布式底层细节的情况下,开发分布式程序. ...
随机推荐
- <!DOCTYPE html>作用
1.定义: DOCTYPE标签是一种标准通用标记语言的文档类型声明,它的目的是要告诉标准通用标记语言解析器,它应该使用什么样的文档类型定义(DTD)来解析文档. <!DOCTYPE> 声明 ...
- <<< 网页中如何利用原生js和jquery储存cookie
javascript当中的cookie机制,使应用达到了真正的全局变量的要求,cookie是浏览器提供的一种机制,它将document 对象的cookie属性提供给JavaScript.可以由Java ...
- MQTT开发笔记之《MQTT Server》
MQTT SERVER 性能测试报告 : http://w3yyb.sinaapp.com/archives/1601各个MQTT SERVER功能列表: http://blog.lenix.xyz/ ...
- 介绍DSA数字签名,非对称加密的另一种实现
接下来我们介绍DSA数字签名,非对称加密的另一种实现. DSA DSA-Digital Signature Algorithm 是Schnorr和ElGamal签名算法的变种,被美国NIST作为DSS ...
- Java开发11个过不去的梗
现在随着编程的普及,作为java程序猿开发的过程逐渐的受到领导的重视,无论自己的经理是能看懂,还是不能看懂,一些事项必须注意起来,不要让自己将来处于不尴不尬的境地,当然这样也方便你我他 1.不在属性文 ...
- 学习MySQL之数据库操作(一)
所有代码,均为自学时用到的测试与注释,知识细节或知识点不会面面俱到,亦不会有任何讲解,只做为自己学习复习用. ##数据库操作 ##创建数据库 myTest ,并将数据库字符集设为GBK CREATE ...
- java生产者/消费者模式实现——一生产者一消费者(操作值)
胶多不粘话多不甜,直接上代码: 生产者类: /** * Created by 51304 on 2016/2/28. */ public class P { private String lock; ...
- 关于Azure带宽的测试
以前见客户经常会碰到一些客户问我们你们Azure的带宽是多少,每次回答这个问题我们只能含糊地告诉客户一个大概数值,这样就会留给客户一个认为我们很不专业的印象,其实站在客户的角度我们也能理解,连这样的一 ...
- 【JSOI2007】麻将 bzoj 1028
Description 麻 将是中国传统的娱乐工具之一.麻将牌的牌可以分为字牌(共有东.南.西.北.中.发.白七种)和序数牌(分为条子.饼子.万子三种花色,每种花色各有一到 九的九种牌),每种牌各四张 ...
- Python自动化之一对多
一对多 建立一对多关系之后(也就是加了外键),会在字表里面多一个"外键字段_id"这个字段 查询 #_*_coding:utf-8_*_ from django.db import ...