换个角度理解云计算之MapReduce
上一篇简单讲了一下HDFS,简单来说就是一个叫做“NameNode”的大哥,带着一群叫做“DataNode”的小弟,完成了一坨坨数据的存储,其中大哥负责保存数据的目录,小弟们负责数据的真正存储,而大哥和小弟其实就是一台台的电脑,他们之间通过交换机,互相联系到了一起。
其实这位大哥和这群小弟不仅能存储数据,还能完成很多计算任务,于是他们有了新的名字,大哥叫做“JobTracker”,而小弟们叫做“TaskTracker”,一起组成了MapReduce。今天就来说说MapReduce是怎么一回事。
这里仅仅是从大面上去介绍,让大家有一个整体的认识,而整体上认识后,个别的细节知识自己再去看看别的资料,也就很容易理解了,只是时间问题而已。
刚开始学习MapReduce,肯定会被各种各样的概念整的晕头转向,到底尼玛任务、job、作业、Task有什么区别?split、数据分片、数据块、block到底什么区别?Map、Mapper、Map方法到底是不是一回事?到底Map输入的Key和Value是什么,是一行数据,还是一行行的数据?Reduce的输入到底尼玛是什么东西?他们之间到底是怎么一个数据流程?还出现了什么Sort、Merge、Shuffle?我了个去啊!!!
如果你也有这样的疑惑,那么下面听我慢慢道来吧,请记住两点:1.MapReduce是个框架,因此是很简单的,前先在脑子里面有这个观念。2.有了这个观念,就不要暴躁了,慢慢看下去吧。
为了说清MapReduce这个问题,我还是以经典的统计单词数量来一步步的说明。我来一步步的去说:
一、我们要干什么?
现在有一个文本文件,里面好多好多单词,文件有多大呢?别管它多大了,反正有很多行,我们要做的事情就是:统计出来到底这个文件里面每个单词出现的次数,最终输出结果到文件中。简单来说如下:
输入:一个有很多单词的文本文件。
例如:文件为test.txt,文件内容如下: hello world hello hadoop . . . . hello dog hello world hello jobs
输出:一个显示单词出现次数的文件。
例如:统计出来结果为: hello world hadoop jobs . . . .
二、编写程序
针对上面这件事,我们编写程序,程序名字叫MyWordCount,我们把程序提交给MapReduce,让大哥和小弟们去做,我们称之为一个作业,英文名叫做job。
三、程序做了什么
关键点来了。
1、文件分割
这么大一个数据文件test.txt,首先输入进来之后,会被分割成一块一块的,称之为一个个split。为了方便我们假设分成了5个split,分别是split1~5,说白了,可以认为是把test.txt分成了五个小文件split1~5,每个split里面有很多行数据。(到底输入文件怎么划分,可以看看InputSplit,可以设置的,这里我们就假设那个test.txt文件内容从上到下分成了5份)。接下来分别对这5个split进行单词的统计,叫做分布式运算。每一个split作为输入数据,给了一个Map,因此叫做Map任务,你也可以叫做Mapper,在编写程序里面Mapper是一个类,用了继承的。
因此,总结一下就是:一个文件,分成了split1~5五个数据分片,每个数据分片对应一个Map任务,共五个Map任务,分别为Map1~5。那么这5个任务让谁去干呢?大哥“JobTracker”说,小弟“Tasktracker”们去干吧。要是有5个小弟,一人一个Map任务,可是假如有三个小弟的话,那么其中两个小弟就必须多干一个任务。
(实际运行过程中,大概是每个小弟大约10到100个Map,对于CPU消耗较小的,大哥可能会给这个小弟分配300个左右)
2.Map操作
让我们把镜头拉进其中一个split的Map过程,假设是split1的Map1过程。
Split1有好多行数据,整体给了Map任务去操作。那么Map任务怎么操作呢?在程序里面其实就是一个Mapper类而已。因此真正实现操作的是Mapper类的其中的map方法来操作,map方法会对输入文件进行操作。那么问题来了,map方法的输入key和value是什么呢,是split1的所有数据还是某一行数据。答案是:某一行数据。那是怎么怎么处理完成那么多行数据的。答案是:运行多次map方法。
因此,总结一下就是:split1有很多行数据,map1任务去处理,对于每一行数据,运行一次map方法。
假如split1有三行:第一行:hello world 第二行:hello hadoop 第三行:hello hadoop。
经过Map1任务运行三次map方法,
第一次map方法的:
输入的key为1,value为:hello world(其中key的值是我瞎编的,value值是对的)。运行map方法里面的代码后
输出为:第一行:hello 1,第二行:world 1
第二次运行map方法的
输入的key为12,value为:hello hadoop,运行map方法后,
输出为:第一行:hello 1,,第二行:hadoop 1
第三次运行map方法
输入的key为23,value为:hello hadoop,运行map方法后,
输出为:第一行:hello 1,hadoop 1
最终,split1,经过一次Map1任务的好多次map方法运行后,最终输出结果可能如下:
hello world hello hadoop hello hadoop
最终,5个split1~5和5个map1~5输出了5份结果,分别存在了不同的节点上,以中间文件存在的,可能并不是知道它们在哪里。
接下来,就该进行Reduce的归并操作,最终统计出来结果,可是在Reduce之前,Map之后,还做了很多事情,下篇再写吧,这篇内容太长了。
(完)
文档信息
- 版权声明:自由转载-非商用-非衍生-保持署名(创意共享3.0许可证)
- 本文为原创文章,欢迎转载,后续本博客会不断更新,因此请保留该文档信息。
- 本文地址:http://www.cnblogs.com/wuguanglei/p/4034323.html
换个角度理解云计算之MapReduce的更多相关文章
- 换个角度理解云计算之MapReduce(二)
接上篇 3.Combiner操作 前面讲完Map操作,总结一下就是:一个大文件,分成split1~5,对应于Map1~5,每一个Map处理一个split,每一个split的每一行,会用每一个Map的m ...
- 换个角度理解云计算之HDFS
学习云计算,必然得了解Hadoop,而Hadoop中的HDFS(分布式文件系统)是一个基础,接下来就写一下我所理解的HDFS. 有一个很有特别的村庄,村庄里面有一个很牛逼的人,叫做“大哥”,村民们都信 ...
- 以吃货的角度去理解云计算中On-Premise、IaaS、PaaS和SaaS
了解云计算的一定都听过四个“高大上”的概念:On-Premise(本地部署),IaaS(基础设施及服务).PaaS(平台即服务)和SaaS(软件即服务),这几个术语并不好理解.不过,如果你是个吃货,还 ...
- 理解hadoop的Map-Reduce数据流(data flow)
http://blog.csdn.net/yclzh0522/article/details/6859778 Map-Reduce的处理过程主要涉及以下四个部分: 客户端Client:用于提交Map- ...
- 理解云计算的(IaaS PaaS SaaS)
本文不经允许,不得转载! 云计算技术已经慢慢普及了.我们做技术的有必要学习云计算技术. IaaS:Infrastructure-as-a-Service(基础设施即服务)云计算到来之前,很多企业都是自 ...
- 云计算(5)---MapReduce
什么是MapReduce 例如用MapReduce如何计算12+22+32+42 用MapReduce执行Wordcount 步骤1:Map map task1 和map task2是独立,并行进行 ...
- 深入理解hadoop之mapreduce
本文系原创,若有转载需要,请注明出处.https://www.cnblogs.com/bigdata-stone/ 1.mapReduce简介 MapReduce是面向大数据并行处理的计算模型.框架和 ...
- 深入理解hadoop值MapReduce(2)
1.MapReduce编程模型概述 MapReduce编程模型给出了分布式的编程方法,总共分为5个步骤.分为这5个步骤的优点:组件化和并行化 (1)迭代.遍历输入数据,并将其解析成key/value键 ...
- 理解云计算三种服务模式——IaaS、PaaS和SaaS
云计算的服务模式仍在不断进化,但业界普遍接受将云计算按照服务的提供方式划分为三个大类: SaaS(Software as a Service–软件即服务) PaaS(Platform as a Ser ...
随机推荐
- maven使用
Maven是一个项目管理和构建自动化工具.但是对于我们程序员来说,我们最关心的是它的项目构建功能,它定义了项目开发的几个标准步骤:编译,发布,单元测试及部署以帮助项目开发 最简单的时候场景是,在pom ...
- 【Java学习笔记】集合转数组---toArray()
package p2; import java.util.ArrayList; import java.util.Arrays; import java.util.List; public class ...
- depot用例视图建模
1. 确定系统涉及的内容 图书馆管理系统有以下模块构成:系统登陆模块.图书馆管理模块.学生管理模块.借阅信息管理模块.图书检索模块. 2. 分析系统参与者 确定参与者首先分析系统涉及的问题领域 和 系 ...
- linux split 命令 将一个大的文件拆分成若干小文件
. 以行数拆分 -l 参数: 原始文件 拆分后文件名前缀 例:以50行对文件进行拆分 big.txt small_ 拆分后会生成 small_aa small_ab small_ac ... . 以大 ...
- AutoMapper扩展
扩展类:AutoMapExtention using System; using System.Collections.Generic; using System.Linq.Expressions; ...
- C# 部分语法总结(入门经典)
class Program { static void Main(string[] args) { init(); System.Console.ReadKey(); } #region 接口 /// ...
- 核心动画(CAKeyframeAnimation)
Main.storyboard ViewController.m // // ViewController.m // 8A02.核心动画 - CAKeyframeAnimation // // ...
- 网页加载图片原理<转>
http://www.haorooms.com/post/web_http_request 图片的http请求,有很多种情况,那么究竟什么情况下面不会发生请求呢?下面我用案例一一列举一下,希望对你深入 ...
- bochs上网及配置
下载并安装bochs2.6:(不能是更高版本) 创建bochs 时注意勾选Dlx linux Demo,但是其文件bochsrc.bxrc中无Ne2k网卡选项,这一段要自己添加,详情见后. 先确定我们 ...
- getIdentifier()获取资源Id
工作需要使用getIdentifier()方法可以方便的获各应用包下的指定资源ID.主要有两种方法:(1)方式一Resources resources = context.getResources() ...