鉴于目前大数据Hadoop 2.x被企业广泛使用,在实际的企业项目中需要更加深入的灵活运用,并且Hadoop 2.x是大数据平台处理

的框架的基石,尤其在海量数据的存储HDFS、分布式资源管理和任务调度YARN及分布式计算框架MapReduce。然而当前众多书籍和

视频教程资料中,没有一套完整的、深入浅出的、实战性操作强的一套资料,一此种情况下,结合鄙人多年实际项目经验,以项目中

使用为主线,编纂筹划此套Hadoop 2.x从零基础到项目实战的课程,带领大家从零基础开始上手,到如何理解HDFS、YARN、

MapReduce的使用和实际项目的分析。希望新手通过此视频课程可以快速上手Hadoop 2.x,从环境的搭建、框架的理解使用到

MapReduce编程,一步一步成功进阶,也希望有基础的学员通过此套课程视频,更加深入理解Hadoop 2.x的使用与原理,做到知其

然知其所以然.最后预祝每位学员都能在坚持学习的情况下成为大数据Hadoop 2.x高手。

 
1.课程研发环境

课程中设计的开发环境

VMWare10

64位CentOS 6.4系统

apache-maven-3.0.5

jdk-7u67-linux-x64

hadoop-2.5.0

2.内容简介
以Apache Hadoop 2.5.0为准,进行深入浅出的讲解各个模块的功能、架构、使用,主要四个方面内容:
模块一:Hadoop 2.x入门
从如何在虚拟机VMWare中安装Linux系统,基本命令的使用,如何编译Hadoop 2.5.0,到搭
建的搭建,MapReduce简单程序的运行,最终分布式集群的安装部署优化及上线下线节点。
模块二:分布式文件系统HDFS
由浅入深剖析HDFS文件系统的架构,NameNode启动原理,HDFS Java API使用,源码的调
试跟踪以及如何远程Debug,NameNode和DataNode启动加载过程。
模块三:分布式资源管理框架YARN
ARN如何从Hadoop 1.x中的MapReduce衍生,YARN如何管理集群资源,如何为各个应用
分配资源。
模块四:分布式计算框架MapReduce
MapReduce编程模型,运行过程Shuffle,编程模块,数据类型讲解,初级应用案例,Shuffle
阶段的分区Partitioner、排序Sort、合并Combiner、分组Grouping,以及二次排序和MapReduce
常见优化方案(MapReduce参数设置、压缩、分布式缓存、多任务依赖和Join算法等)。
 
梦琪:
    多年的云计算平台项目经验,目前就职于国内某云计算机公司,任云计算项目首席架构师和产品经理。
近些年一直致力于云计算方向研究、开发、及运用,参与和主导多个云计算项目的建设、研发、运营等。
技术实力派教员,讲课生动风趣,深得学员喜爱。
 
 

模块一、Hadoop 2.x入门

001 为什么开设Hadoop 2.x课程以及企业中的应用

002 课程大纲介绍、课程学习注意事项

003 安装Linux虚拟机、基本设置(Ip地址配置、主机名、创建用户等)

004 Linux远程四大工具使用

005 主机名与IP映射配置、man命令以及如何创建查看文件内容

006 Linux系统中文件类型、权限、用户讲解

007 对文件cp、mv命令讲解、设置用户sudo和安装JDK

008 Hadoop 2.x介绍与生态系统重要框架讲解

009 hadoop 起源、三大版本和下载编译说明

010 hadoop 2.5.0编译准备工作(安装Maven、系统依赖包等)

011 对Haodop 2.5.0进行编译、目录结构讲解以及编译注意事项

012 将hadoop 2.x源码导入Eclipse中,进行查看和编辑修改

013 Hadoop 2.x模块之HDFS架构概要介绍讲解

014 Hadoop 2.x模块之YARN架构和MapReduce on YARN概要介绍讲解

015 Hadoop 2.x安装部署前的准备

016 在单机模式下运行MapReduce案例和伪分布式安装配置HDFS

017 运行MapReduce程序(输入输出数据来源于HDFS)和讲解HDFS基本Shell命令操作

018 伪分布式部署YARN(配置与启动)和在YARN上运行MapReduce任务

019 HDFS权限检查讲解和运行词频统计WordCount程序

020 MapReduce历史服务JobHistoryServer讲解和启动Hadoop 2.x服务组件的三种方式

021 分析三种启动方式脚本和引出ssh协议作用

022 讲解SSH协议和SSH无密钥登陆原理

023 配置SSH无密钥、使用start-dfs.sh启动HDFS所有服务组件和讲解Hadoop与Java版本选择

024 Hadoop 2.x两种配置文件讲解说明

025 如何配置Hadoop 2.x中各个守护进程运行的主机

026 如何配置HDFS相关数据存储的本地目录

027 运行在YARN上的MapReduce程序相关日志(应用日志和Container日志)

028 启用运行在YARN上应用程序日志聚合功能和MapReduce Uber模式

029 Hadoop 2.x分布式安装部署环境准备之克隆虚拟机和配置主机名与IP地址

030 Hadoop 2.x分布式安装部署环境准备之集群hosts映射配置和时间同步配置

031 Hadoop 2.x分布式集群安装部署启动(基于伪分布式进行)

032 Hadoop 2.x分布式安装部署之集群部署的基本测试验证和基准测试(集群性能和Hadoop 2.x性能)

033 Hadoop 2.x分布式安装部署之配置HDFS与YARN的主节点到从节点的SSH无密钥登陆、解决问题

034 YARN中的Web Application Proxy讲解

035 阅读讲解Hadoop 2.x官方文档集群如何安装和CLI MiniCluster讲解

036 如何增加和卸载集群节点、卸载HDFS的DataNode节点

037 卸载YARN的NodeManager节点和集群增加节点讲解

038 企业级Hadoop 2.x中HDFS、YRAN的架构设计和MR运行流程图预览

模块二、分布式文件系统HDFS

039 分布式文件系统架构之一设计目标和架构讲解一

040 分布式文件系统架构之二架构设计NameNode和DataNode详解

041 分布式文件系统架构之三块Block的存放策略和垃圾回收

042 分布式文件系统架构之四NameNode启动过程详解

043 分布式文件系统架构之五NameNode启动过程中安全模式详解

044 分布式文件系统架构之六使用oiv和oev查看NameNode的fsimage和edits文件内容

045 分布式文件系统架构之七SecondaryNameNode功能详解

046 分布式文件系统架构之八如何使用SNN恢复NN

047 HDFS Shell 命令使用讲解

048 HDFS 管理命令讲解和使用Eclipse创建Maven工程

049  使用HDFS URL API详解和查看IOUtils源码

050 使用HDFS FS API详解之一多种方式获取FileSystem实例

051 使用HDFS FS API详解之二伪装用户方式操作HDFS和向HDFS上写文件

052 使用HDFS FS API详解之三获取文件的存储信息和集群DataNodes信息以及其他操

053 使用HDFS FS API详解之四远程Debug调试跟踪程序

054 使用HDFS FS API详解之五本地文件系统LocalFileSystem讲解和百度网盘功能讲

055 深入讲解HDFS客户端配0置和配置信息分类

056 HDFS应用案例讲解之需求说明分析

057 HDFS应用案例讲解之编码实现与测试说明该

058 Hadoop 2.x底层通讯协议RPC讲解和编程实现远程过程调用

059 HDFS各守护进程之间通信的RPC协议和如何调式读取文件内容

060 Hadoop 2.x源码远程调试两种方式讲解和如何使用打印日志进行调试

061 使用Eclipse进行对Hadoop 2.x源码进行远程调试(查看NameNode启动过程)

模块三、分布式资源管理框架YARN

062 云计算与大数据Hadoop关系、Hadoop 1.x与Hadoop 2.x比较

063 分布式资源管理框架YARN功能详解

064 YARN架构组件详解、通信协议讲解和以YARN为核心的生态系统

065 YARN监控界面详解(YARN如何管理监控集群资源)

066 企业测试机配置说明、如何对节点资源进行配置管理

067 YARN对集群资源(内存和CPU)管理与隔离讲解             
068 YARN命令使用讲解、YARN的工作流程讲解

069 YARN中应用历史服务TimelineServer配置讲解

070 国内外主要的Hadoop 2.x相关的几大发行版本讲解(CDH,HDP等)

模块四、分布式计算框架MapReduce

071 企业大数据应用和MapReduce编程模型讲解

072 MapReduce思想原理和如何在YARN上运行

073 分析WordCount程序执行流程以及编写MapReduce八股文格式

074 以【八股文格式】编写WordCount程序

075 优化WordCount程序(实现Tool接口)以及总结如何编写MapReduce程序

076 MapReduce程序中如何自定义计数器和WordCount程序中优化注意事项

077 MapReduce程序默认情况下如何对输入文件进行读取和输出文件进行写入

078 在Linux系统下使用Eclipse开发测试MapReduce程序

079 如何编译Win7下Hadoop 2.x插件和配置运行使用

080 不同模式下运行的Counters、如何从YARN监控页面查询以运行MapReduce程序及MapReduce Shuffle讲解一

081 MapReduce Shuffle画图讲解二

082 MapReduce Shuffle讲解三

083 如何在MapReduce程序中设置Shuffle阶段的五大要点以及MapReduce程序可以没有Reduce类测试讲解

084 如何设置MapReduce Job中Reduce Task数量及总体把握MapReduce 框架运行过程

085 通过跟踪源码分析MapReduce提交Job的过程

086 MapReduce Job运行时如何计算Map Task个数(计算InputSplit)

087 MapReduce Job提交的两种运行方式源码分析及Mapper和Reducer类分析讲解

088 依据基类Mapper和Reducer编写MapReduce编程模板

089 最小配置MapReduce Job、MapReduce的默认配置(源码分析)和修改优化MapReduce编程模板

090 如何依据MapReduce模板编写Job程序并测试

091 MapReduce单元测试框架MRUnit基本使用讲解

092 使用MRUnit对Mapper、Reducer进行单元测试

093 通过MapReduce自定的数据类型源码分析,如何自定义数据类型

094 在定义Key的数据类型时,如何定义优化比较器Comaprator

095 编写自定义数据类型Key,实现优化比较器Comparator

096 自定义数据类型时注意事项及企业大数据中常用的MapReduce应用

097 三大运营商业务需求及手机流量统计需求分析(原数据和业务)

098 依据业务分析实现手机流量统计MapReduce编码

099 编写MapReduce程序及测试

100 MapReduce初级应用案例之TopKey讲解一

101 MapReduce初级应用案例之TopKey讲解二

102 源码分析讲解MapReduce输入格式InputFormat

103 从源码和应用角度讲解常用的InputFormat

104 SequenceFileInputFormat应用讲解和如何自定义InputFormat(解析XML文件)

105 通过源码和对比讲解MapReduce输出格式OutputFormat及常用的OutputFormat解析

106 MapReduce输出多个指定的文件MultipleOutputs使用讲解

107 MapReduce Shuffle中分区Partitioner讲解(结合实际案例)

108 MapReduce Shuffle中合并Combiner讲解(功能、实际应用)

109 MapReduce Shuffle中Key的比较器讲解RawComparator以及通过实际应用引出二次排序

110 依据需求实现key相同时对value进行排序,使用二次排序实现(自定义数据类型key,分组比较器等)

111 二次排序案例的优化(自定义分区和整数字节比较时的注意事项)

112 MapReduce编程优化之一配置参数的几种设置方式及优先级

113 MapReduce编程优化之二MapReduce中的Compression

114 MapReduce编程优化之三分布式缓存DistributedCache使用讲解一

115 MapReduce编程优化之三分布式缓存DistributedCache使用讲解二

116 MapReduce编程优化之四MapReduce 旧API的区别与使用讲解

117 MapReduce编程优化之五MapReduce多任务依赖(ControlledJob和JobControl)

118 MapReduce编程优化之六链式Mapper的使用ChainMapper和ChainReducer

119 MapReduce编程优化之七MapReduce Join算法讲解一

120 MapReduce编程优化之七MapReduce Join算法讲解二

121 MapReduce编程优化之八小文件处理几种方式讲解

122 MapReduce编程优化之九MapReduce Shuffle阶段的配置调优以及Hadoop1.x的MR程序运行在Hadoop 2.x上的注意事项

亮点一、从零基础开始讲起,包括Linux系统,基本命令

亮点二、以企业使用的角度讲解Hadoop 2.x的各个知识,抽取案例模型讲解

亮点三、整套课程以实际操作为主,让大家对Hadoop 2.x环境、MapReduce编写深层次的理解掌握

1.课程针对人群

Hadoop初学者、具有一定Linux系统、Java使用经验

系统架构师、系统分析师、高级程序员、资深开发人员。

牵涉到大数据处理的数据中心运行、规划、设计负责人。

高校、科研院所牵涉到大数据与分布式数据处理的项目负责人。

数据仓库管理人员、建模人员,分析人员和开发人员、系统管理人员、数据库管理人员以及对数据仓库感兴趣的其他人员。

2.我该怎么学,如何才能学好这门课程,给些建议。

4.1、时间上的安排建议

本课程第一季共66讲,如果您时间上充分,建议以每天3-4讲的进度往前学习,一定要进行操作,记笔记。

4.2、学习要求

持之以恒,每天都坚持学习(看视频、实际联系,多思考),有问题及时沟通交流解决,建议多看官方文档。

4.3、讲师建议

1.最好看完视频之后,抛开视频,独立自己去把上课中的示例写一遍,看自己是否理解,如果不正确,可以回过头看再看下视频,如果反复,达到真正理解和熟练掌握的目的。

2.对于项目实战部分,一定要自己亲自动手做一遍,不要满足听完就OK了

3. 建议一般听视频,一般拿个纸和笔,做一些记录和笔记,这是一种非常好的学习习惯。

4. 一定不要过于依赖视频,要学会看API和使用百度,学会思考,学会举一反三

5. 最后祝您学有所成

Hadoop 2.x从零基础到挑战百万年薪第一季的更多相关文章

  1. 《Windows编程零基础学》第零节

    首先很开心申请到了这一个专栏<Windows编程零基础学> 这是第一篇文章,在这里,我将讲述一些基础的知识. 什么是Windows编程 所谓Windows编程就是在Windows平台上开发 ...

  2. Siki_Unity_1-4_C#编程(零基础)

    1-4 C#编程(零基础) 任务1:第一章课程资料 任务2:简介 任务3:安装设置IDE工具 Unity内置IDE:MonoDevelop 推荐Visual Studio 下载/安装 VS Commu ...

  3. 零基础如何学习Java和web前端

    今天说一下零基础到底能不能学习Java,为什么有的人说学不了呢,那么接下来我为大家揭晓,零基础到底适合不适合学习Java. 零基础学习Java的途径第一个就是看视频,然后就是看书,或者在线下报个培训班 ...

  4. 零基础学习hadoop到上手工作线路指导

    零基础学习hadoop,没有想象的那么困难,也没有想象的那么容易.在刚接触云计算,曾经想过培训,但是培训机构的选择就让我很纠结.所以索性就自己学习了.整个过程整理一下,给大家参考,欢迎讨论,共同学习. ...

  5. 零基础学习Hadoop

    零基础学习hadoop,没有想象的那么困难,也没有想象的那么容易.在刚接触云计算,曾经想过培训,但是培训机构的选择就让我很纠结.所以索性就自己学习了.整个过程整理一下,给大家参考,欢迎讨论,共同学习. ...

  6. 零基础学习hadoop到上手工作线路指导初级篇:hive及mapreduce(转)

    零基础学习hadoop到上手工作线路指导初级篇:hive及mapreduce:http://www.aboutyun.com/thread-7567-1-1.html mapreduce学习目录总结 ...

  7. 零基础学习hadoop开发所必须具体的三个基础知识

    大数据hadoop无疑是当前互联网领域受关注热度最高的词之一,大数据技术的应用正在潜移默化中对我们的生活和工作产生巨大的改变.这种改变给我们的感觉是“水到渠成”,更为让人惊叹的是大数据已经仅仅是互联网 ...

  8. 零基础学习hadoop到上手工作线路指导(编程篇)

    问题导读: 1.hadoop编程需要哪些基础? 2.hadoop编程需要注意哪些问题? 3.如何创建mapreduce程序及其包含几部分? 4.如何远程连接eclipse,可能会遇到什么问题? 5.如 ...

  9. 零基础学习hadoop到上手工作线路指导(中级篇)

    此篇是在零基础学习hadoop到上手工作线路指导(初级篇)的基础,一个继续总结. 五一假期:在写点内容,也算是总结.上面我们会了基本的编程,我们需要对hadoop有一个更深的理解: hadoop分为h ...

随机推荐

  1. 使用CAShapeLayer来实现圆形图片加载动画[译]

    原文链接 : How To Implement A Circular Image Loader Animation with CAShapeLayer 原文作者 : Rounak Jain 译文出自 ...

  2. CursorAdapter说明

    参考:http://www.bubuko.com/infodetail-734550.html和http://blog.csdn.net/yuzhiboyi/article/details/76548 ...

  3. gmake使用注意

    今天使用gmake把sgml变成html的时候出现了无法找到gmake的困惑(本人linux为ubuntu15.04),上网搜索发现: gmake是GNU Make的缩写.Linux系统环境下的mak ...

  4. Intent过滤,intent-filter

    Intent过滤 编写:kesenhoo - 原文:http://developer.android.com/training/basics/intents/filters.html 前两节课主要讲了 ...

  5. Android广播——短信拦截

    MainActivity.java package com.example.broadcasttest; import android.content.Intent; import android.c ...

  6. [转]如何从MySQL官方Yum仓库安装MySQL5.6

    参考博文: 如何从MySQL官方Yum仓库安装MySQL5.6 Centos 升级Mysql版本或者Yum安装Mysql5.6 2013年10月,MySQL开发团队正式宣布支持Yum仓库,这就意味着我 ...

  7. 【集训笔记】【大数模板】特殊的数 【Catalan数】【HDOJ1133【HDOJ1134【HDOJ1130

    http://acm.zju.edu.cn/onlinejudge/showProblem.do?problemCode=3324 http://blog.csdn.net/xymscau/artic ...

  8. pojg2744找一个最长的字符串x,使得对于已经给出的字符串中的任意一个y,x或者是y的子串,或者x中的字符反序之后得到的新字符串是y的子串。

    http://poj.grids.cn/practice/2744 描述现在有一些由英文字符组成的大小写敏感的字符串,你的任务是找到一个最长的字符串x,使得对于已经给出的字符串中的任意一个y,x或者是 ...

  9. paip.输入法编程---输入法ATIaN历史记录 c823

    paip.输入法编程---输入法ATIaN历史记录 c823 作者Attilax ,  EMAIL:1466519819@qq.com 来源:attilax的专栏 地址:http://blog.csd ...

  10. Linux下arp用法

    [功能] 管理系统的arp缓存. [描述] 用来管理系统的arp缓存,常用的命令包括: arp: 显示所有的表项. arp  -d  address: 删除一个arp表项. arp  -s addre ...