转自:http://blog.csdn.net/jaytalent?viewmode=contents

MapReduce调度与执行原理系列文章

一、MapReduce调度与执行原理之作业提交

二、MapReduce调度与执行原理之作业初始化

三、MapReduce调度与执行原理之任务调度

四、MapReduce调度与执行原理之任务调度(续)

前言:本文旨在理清在Hadoop中一个MapReduce作业(Job)在提交到框架后的整个生命周期过程,权作总结和日后参考,如有问题,请不吝赐教。本文不涉及Hadoop的架构设计,如有兴趣请参考相关书籍和文献。在梳理过程中,我对一些感兴趣的源码也会逐行研究学习,以期强化基础。
作者:Jaytalent
开始日期:2013年9月9日

参考资料:【1】《Hadoop技术内幕--深入解析MapReduce架构设计与实现原理》董西成
                  【2】Hadoop 1.0.0 源码
                            【3】《Hadoop技术内幕--深入解析Hadoop Common和HDFS架构设计与实现原理》蔡斌 陈湘萍
一个MapReduce作业的生命周期大体分为5个阶段【1】:
1. 作业提交与初始化
2. 任务调度与监控
3. 任务运行环境准备
4. 任务执行
5. 作业完成
现逐一学习。
由于作业提交是在客户端完成,而初始化在JobTracker完成,本文只关注前者,后者留待下一篇文章学习研究。
一、作业提交与初始化
以WordCount作业为例,先看作业提交的代码片段:
  1. Job job = new Job(conf, "word count");
  2. job.setJarByClass(WordCount.class);
  3. job.setMapperClass(TokenizerMapper.class);
  4. job.setCombinerClass(IntSumReducer.class);
  5. job.setReducerClass(IntSumReducer.class);
  6. job.setOutputKeyClass(Text.class);
  7. job.setOutputValueClass(IntWritable.class);
  8. FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
  9. FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
  10. System.exit(job.waitForCompletion(true) ? 0 : 1);
这里使用的新的MapReduce API。job.waitForCompletion(true)函数调用开始作业提交过程。接下来,依次调用:job.submit --> JobClient.submitJobInternal方法,真正实现作业提交。在JobClient.submitJobInternal方法中,主要有以下准备工作:
1. 获取作业ID
  1. JobID jobId = jobSubmitClient.getNewJobId();

作业ID时从JobTracker获取的,这是一次RPC调用,方法为getNewJobId,定义在JobSubmissionProtocol接口。

  1. private JobSubmissionProtocol jobSubmitClient;
Hadoop的RPC机制是基于动态代理实现的。客户端代码使用RPC类提供的代理对象调用服务器的方法。MapReduce中定义了一系列协议接口用于RPC通信。这些协议包括:
a. JobSubmissionProtocol
b. RefreshUserMappingsProtocol
c. RefreshAuthorizationPolicyProtocol
d. AdminOperationsProtocol
e. InterTrackerProtocol
f. TaskUmbilicalProtocol
前面四个协议用于客户端,最后两个协议位于MapReduce内部。这里使用的getNewJobId方法即协议JobSubmissionProtocol所定义:
  1. /**
  2. * Allocate a name for the job.
  3. * @return a unique job name for submitting jobs.
  4. * @throws IOException
  5. */
  6. public JobID getNewJobId() throws IOException;

用户使用该协议通过JobTracker提交作业,查看作业状态等。

2. 作业文件上传
JobClient会根据作业配置信息将作业所需文件上传到JobTracker的文件系统,通常是HDFS。配置信息由JobConf类对象维护。在新的API中,JobConf对象作为JobContext对象的组成部分,作业类Job即继承于JobContext类。
在上传文件前,需要在HDFS上创建必要的目录。上传文件的具体过程从JobClient.submitJobInternal方法中这句调用开始:
  1. copyAndConfigureFiles(jobCopy, submitJobDir);

在配置了提交副本数(mapred.submit.replication,默认为10)等信息后,主要代码分析如下(为了清晰起见,省略了一些日志和异常处理):

  1. // Retrieve command line arguments placed into the JobConf
  2. // by GenericOptionsParser.
  3. String files = job.get("tmpfiles");
  4. String libjars = job.get("tmpjars");
  5. String archives = job.get("tmparchives");

首先,从配置中获取不同类型文件的名称和路径,这些配置在作业提交时从命令行(Hadoop Shell)指定。files表示作业依赖的普通文件,比如文本文件;libjars表示应用程序依赖的第三方jar包;archives表示应用程序使用的多个文件打包而成的压缩文件。

  1. // Create a number of filenames in the JobTracker's fs namespace
  2. FileSystem fs = submitJobDir.getFileSystem(job);
  3. submitJobDir = fs.makeQualified(submitJobDir);
  4. FsPermission mapredSysPerms = new FsPermission(JobSubmissionFiles.JOB_DIR_PERMISSION);
  5. FileSystem.mkdirs(fs, submitJobDir, mapredSysPerms);
  6. Path filesDir = JobSubmissionFiles.getJobDistCacheFiles(submitJobDir);
  7. Path archivesDir = JobSubmissionFiles.getJobDistCacheArchives(submitJobDir);
  8. Path libjarsDir = JobSubmissionFiles.getJobDistCacheLibjars(submitJobDir);

接下来,在JobTracker的文件系统(通常为HDFS)的命名空间创建一系列文件路径名,其中包括前述三种文件类型。
有了路径名后,在HDFS上创建路径并将这些文件拷贝到对应的目录中,代码如下:

  1. // add all the command line files/ jars and archive
  2. // first copy them to jobtrackers filesystem
  3. if (files != null) {
  4. FileSystem.mkdirs(fs, filesDir, mapredSysPerms);
  5. String[] fileArr = files.split(",");
  6. for (String tmpFile: fileArr) {
  7. URI tmpURI;
  8. tmpURI = new URI(tmpFile);
  9. Path tmp = new Path(tmpURI);
  10. Path newPath = copyRemoteFiles(fs,filesDir, tmp, job, replication);
  11. URI pathURI = getPathURI(newPath, tmpURI.getFragment());
  12. DistributedCache.addCacheFile(pathURI, job);
  13. DistributedCache.createSymlink(job);
  14. }
  15. }
  16. if (libjars != null) {
  17. FileSystem.mkdirs(fs, libjarsDir, mapredSysPerms);
  18. String[] libjarsArr = libjars.split(",");
  19. for (String tmpjars: libjarsArr) {
  20. Path tmp = new Path(tmpjars);
  21. Path newPath = copyRemoteFiles(fs, libjarsDir, tmp, job, replication);
  22. DistributedCache.addArchiveToClassPath
  23. (new Path(newPath.toUri().getPath()), job, fs);
  24. }
  25. }
  26. if (archives != null) {
  27. FileSystem.mkdirs(fs, archivesDir, mapredSysPerms);
  28. String[] archivesArr = archives.split(",");
  29. for (String tmpArchives: archivesArr) {
  30. URI tmpURI;
  31. tmpURI = new URI(tmpArchives);
  32. Path tmp = new Path(tmpURI);
  33. Path newPath = copyRemoteFiles(fs, archivesDir, tmp, job, replication);
  34. URI pathURI = getPathURI(newPath, tmpURI.getFragment());
  35. DistributedCache.addCacheArchive(pathURI, job);
  36. DistributedCache.createSymlink(job);
  37. }

注意,MapReduce作业文件的上传和下载是通过DistributedCache工具完成的,它是一个数据分发工具。用户指定的文件会被分发到各个TaskTracker上以运行Task。这里暂不涉及该工具的细节,留待日后讨论。

最后,将作业对应的jar文件拷贝到HDFS中:
  1. String originalJarPath = job.getJar();
  2. if (originalJarPath != null) {           // copy jar to JobTracker's fs
  3. // use jar name if job is not named.
  4. if ("".equals(job.getJobName())){
  5. job.setJobName(new Path(originalJarPath).getName());
  6. }
  7. Path submitJarFile = JobSubmissionFiles.getJobJar(submitJobDir);
  8. job.setJar(submitJarFile.toString());
  9. fs.copyFromLocalFile(new Path(originalJarPath), submitJarFile);
  10. fs.setReplication(submitJarFile, replication);
  11. fs.setPermission(submitJarFile,
  12. new FsPermission(JobSubmissionFiles.JOB_FILE_PERMISSION));
  13. }

注意,在每次上传一种类型的文件后,都会将这种文件的路径配置到JobConf对象中,具体的工作由

  1. DistributedCache.addCacheFile(pathURI, job);
  2. DistributedCache.addArchiveToClassPath(new Path(newPath.toUri().getPath()), job, fs);
  3. DistributedCache.addCacheArchive(pathURI, job);
  4. job.setJar(submitJarFile.toString());

这四行代码完成。顺便提一句,Path类Hadoop文件系统在java.net.URI的基础上抽象了文件系统中的路径【3】。Java的File类和URL类分别抽象了不同的事物,Path可以说将二者统一起来。
3. 生成InputSplit文件

JobClient调用InputFormat的getSplits方法将用户提交的输入文件生成InputSplit相关信息。
  1. // Create the splits for the job
  2. FileSystem fs = submitJobDir.getFileSystem(jobCopy);
  3. int maps = writeSplits(context, submitJobDir);
  4. jobCopy.setNumMapTasks(maps);

jobCopy是一个JobConf对象。其中,writeSplits方法会实际调用InputSplit.getSplits方法生成splits信息,并将splits原始信息和元信息写入HDFS对应的目录和文件中。有关split的生成过程日后研究,这里不展开了。最后,将作业对应的JobConf对象以XML配置文件形式写入到HDFS中:

  1. // Write job file to JobTracker's fs
  2. FSDataOutputStream out =
  3. FileSystem.create(fs, submitJobFile,
  4. new FsPermission(JobSubmissionFiles.JOB_FILE_PERMISSION));
  5. try {
  6. jobCopy.writeXml(out);
  7. } finally {
  8. out.close();
  9. }

至此,作业文件上传才算正式完毕。
接下来,作业将被提交到JobTracker,请关注下篇文章:

MapReduce调度与执行原理系列文章的更多相关文章

  1. MapReduce调度与执行原理之任务调度

    前言 :本文旨在理清在Hadoop中一个MapReduce作业(Job)在提交到框架后的整个生命周期过程,权作总结和日后参考,如有问题,请不吝赐教.本文不涉及Hadoop的架构设计,如有兴趣请参考相关 ...

  2. MapReduce调度与执行原理之作业提交

    前言 :本文旨在理清在Hadoop中一个MapReduce作业(Job)在提交到框架后的整个生命周期过程,权作总结和日后参考,如有问题,请不吝赐教.本文不涉及Hadoop的架构设计,如有兴趣请参考相关 ...

  3. MapReduce调度与执行原理之作业初始化

    前言 :本文旨在理清在Hadoop中一个MapReduce作业(Job)在提交到框架后的整个生命周期过程,权作总结和日后参考,如有问题,请不吝赐教.本文不涉及Hadoop的架构设计,如有兴趣请参考相关 ...

  4. MapReduce调度与执行原理之任务调度(续)

    前言 :本文旨在理清在Hadoop中一个MapReduce作业(Job)在提交到框架后的整个生命周期过程,权作总结和日后参考,如有问题,请不吝赐教.本文不涉及Hadoop的架构设计,如有兴趣请参考相关 ...

  5. FastDFS原理系列文章

    FastDFS原理系列文章 基于FastDFS 5.03/5.04 2014-12-19 一.概述 FastDFS文档极少,仅仅能找到一些宽泛的架构文档,以及ChinaUnix论坛上作者对网友提问的一 ...

  6. Consul实现原理系列文章3: Consul的整体架构

    工作中用到了Consul来做服务发现,之后一段时间里,我会陆续发一些文章来讲述Consul实现原理.在前几篇文章介绍完了Consul用到的两个关键性东西Raft和Gossip之后,这篇文章会讲述Con ...

  7. Consul实现原理系列文章2: 用Gossip来做集群成员管理和消息广播

    工作中用到了Consul来做服务发现,之后一段时间里,我会陆续发一些文章来讲述Consul实现原理.这篇文章会讲述Consul是如何使用Gossip来做集群成员管理和消息广播的. Consul使用Go ...

  8. Consul实现原理系列文章1: 用Raft来实现分布式一致性

    工作中用到了Consul来做服务发现,之后一段时间里,我会陆续发一些文章来讲述Consul实现原理.在前一篇文章中,我介绍了Raft算法.这篇文章会讲讲Consul是如何使用Raft算法来实现分布式一 ...

  9. JSP的执行原理、JSP的内置对象、四大作用域解析、MVC模式理解>从零开始学JAVA系列

    目录 JSP的执行原理.JSP的内置对象.四大作用域解析.MVC模式理解 JSP的执行原理 这里拿一个小例子来解析JSP是如何被访问到的 首先将该项目部署到tomcat,并且通过tomcat启动 通过 ...

随机推荐

  1. JS高级心法——作用域链

    首先我们来看两个js中的代码:    <script type="text/javascript"> var c=5; function t1(){ var d=6 f ...

  2. python标准库介绍——6 math模块详解

    ==math 模块== ``math`` 模块实现了许多对浮点数的数学运算函数. 这些函数一般是对平台 C 库中同名函数的简单封装, 所以一般情况下, 不同平台下计算的结果可能稍微地有所不同, 有时候 ...

  3. Matlab图形调色

    Matlab图形调色 Simple example var colormap = require('colormap') options = {   colormap: 'jet',   // pic ...

  4. dubbo-admin 管理台的部署

    首先上传dubbo-admin的war包 参考链接: http://www.open-open.com/lib/view/open1454043410245.html

  5. &lt;二代測序&gt; 批量下载 NCBI sra 文件

    本文近期更新地址: http://blog.csdn.net/tanzuozhev/article/details/51078460 前文 http://blog.csdn.net/tanzuozhe ...

  6. UVA 1264 - Binary Search Tree(BST+计数)

    UVA 1264 - Binary Search Tree 题目链接 题意:给定一个序列,插入二叉排序树,问有多少中序列插入后和这个树是同样的(包含原序列) 思路:先建树,然后dfs一遍,对于一个子树 ...

  7. Cocos2d-x添加Android手机震动

    这个震动需要调用adnroid系统的方法,所以需要C++调用java,JNI这里就不多做介绍了,需要的可以自己去查找下相关资料,如果你只是需要实现这个功能,相信你看完本文,应该就OK了! 1.首先,修 ...

  8. 【NOI】9272 偶数个三

    题目 链接:bajdcc/ACM 描述 在所有的N位数中,有多少个数中有偶数个数字3?结果模12345.(1<=N<=10000) 样例输入 2 样例输出 73 方法一:穷举 评价:最简单 ...

  9. 续写上一篇的数组or指针操作

    C语言,同样使用if else while 这样的语法,但不同的人,就是有不同的实现方式,甚至是技巧. eg: #include <stdio.h> #include<string. ...

  10. Java web 项目读取src或者tomcat下class文件夹下的xml文件或者properties文件

    //生成一个文件对象: File file = new File(getClass().getClassLoader().getResource("test.xml").getPa ...