一:Hadoop集群简介:

  Hadoop 集群具体来说包含两个集群:HDFS集群和YARN集群,两者逻辑上分离,但物理上常在一起;

  HDFS集群:负责海量数据的存储,集群中的角色主要有: NameNode、DataNode、SecondaryNameNode;

  YARN集群:负责海量数据运算时的资源调度,集群中的角色主要有: ResourceManager、NodeManager;

  那么 Mapreduce 是什么呢:它其实是一个分布式运算编程框架,是应用程序开发包,由用户按照编程规范进行程序开发,

然后打包运行在 HDFS 集群上,并受到 YARN 集群的资源调度管理,由 YARN 为Mapreduce 程序分配运算硬件资源;

二:Hadoop集群部署: 

  Hadoop包含HDFS集群和YARN集群。部署Hadoop就是部署HDFS和YARN集群

  Hadoop部署方式分为三种,Standalone mode(独立模式)、Pseudo-Distributed mode(伪分布式模式)、Cluster rmode

(群集模式),其中前两种都是在单机部署

  1. 独立模式又称为单机模式,仅1个机器运行1个java进程,主要用于调试  

  2. 伪分布模式也是在1个机器上运行 HDFS 的NameNode和DataNode、YARN的ResourceManger和NodeManager,但分别启

动单独的java进程,主要用于调试

  3. 集群模式主要用于生产坏境部署,会使用N台主机组成一个Hadoop集群。这种部署模式下,主节点和从节点会分开部署在

不同的机器上

  4. 本集群搭建案例,以4节点为例进行搭建,角色分配如下:

主机名 IP 角色
shizhan2 192.168.232.201 Name Node:9000
Resource Manager
shizhan3 192.168.232.205 Data Node
Node Manager
shizhan5 192.168.232.207 Data Node
Node Manager
shizhan6 192.168.232.208 Data Node
Node Manager

示例图:

三:Hadoop集群安装:

  1.上传安装文件到虚拟机:我使用FTP传输

   2.解压文件到指定目录:  tar -zxvf cenos-6.5-hadoop-2.6.4.tar.gz -C /usr/local/src/

   3.修改配置文件:

   3.1.hadoop-env.sh:

    vi /usr/local/src/hadoop-2.6.4/etc/hadoop/hadoop-env.sh

    然后配置JAVA_HOME,可以先用echo $JAVA_HOME命令取得JAVA_HOME的位置:/usr/java/jdk1.7.0_45

      export JAVA_HOME=/usr/java/jdk1.7.0_45

  3.2.core-site.xml:

    vi /usr/local/src/hadoop-2.6.4/etc/hadoop/core-site.xml

  1. <configuration>  
  2.      <!-- 指定 Hadoop 所使用的文件系统schema(URI),HDFS的老大(NameNode:为客户提供服务,首先被访问)的地址 -->
  3. <property>
  4. <name>fs.defaultFS</name>
  5. <value>hdfs://shizhan2:9000</value>
  6. </property>
  7. <!-- 指定hadoop运行时产生文件的存储目录 -->
  8. <property>
  9. <name>hadoop.tmp.dir</name>
  10. <value>/usr/local/src/hadoop-2.6.4/hdpdata</value>
  11. </property>
  12. </configuration>

  3.3.hdfs-site.xml:

   vi /usr/local/src/hadoop-2.6.4/etc/hadoop/hdfs-site.xml

  1. <configuration>
  2. <!-- 指定HDFS副本的数量 -->
  3. <property>
  4. <name>dfs.replication</name>
  5. <value>1</value>
  6. </property>
  7. </configuration>

  3.4.mapred-site.xml:

  vi /usr/local/src/hadoop-2.6.4/etc/hadoop/mapred-site.xml.template

  mv mapred-site.xml.template mapred-site.xml

  1. <configuration>
  2. <!-- 指定mapreduce运行在yarn上 -->
  3. <property>
  4. <name>mapreduce.framework.name</name>
  5. <value>yarn</value> //不填写默认local
  6. </property>
  7. </configuration>

  3.5.yarn-site.xml:

  vi /usr/local/src/hadoop-2.6.4/etc/hadoop/yarn-site.xml

  1. <configuration>
  2.     <!-- Site specific YARN configuration properties -->
  3.     <!-- 指定YARN的老大(ResourceManager)的地址 -->
  4. <property>
  5. <name>yarn.resourcemanager.hostname</name>
  6. <value>shizhan2</value>
  7. </property>
  8. <!-- reducer获取数据的方式 -->
  9. <property>
  10. <name>yarn.nodemanager.aux-services</name>
  11. <value>mapreduce_shuffle</value>
  12. </property>
  13. </configuration>

   4.将Hadoop拷贝到其他虚拟机:

    scp -r /usr/local/src/hadoop-2.6.4 shizhan3:/usr/local/src/

    scp -r /usr/local/src/hadoop-2.6.4 shizhan5:/usr/local/src/

    scp -r /usr/local/src/hadoop-2.6.4 shizhan6:/usr/local/src/

   5.将hadoop添加到环境变量:

    vim /etc/proflie   

  1. export JAVA_HOME=/usr/java/jdk1.7.0_65
  2. export HADOOP_HOME=/usr/local/src/hadoop-2.6.4
  3. export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

    source /etc/profile

   6.格式化 HDFS文件系统:(对namenode进行初始化,生成相应目录)

    首先把Hadoop配置到环境变量里面去,然后执行命令:hdfs namenode -format (hadoop namenode -format)

    

    创建了NameNode的工作目录 

  7.修改NameNode中的slaves配置(供自动化启动脚本使用):vi /usr/local/src/hadoop-2.6.4/etc/hadoop/slaves

  1. shizhan3
  2. shizhan5
  3. shizhan6

  8.在NameNode节点上启动Hadoop:Hadoop/sbin/start-all.sh(先启动HDFS再启动YARN)

   分开进行启动:先启动HDFS:sbin/start-dfs.sh ,再启动YARN:sbin/start-yarn.sh

   

   然后在NameNode上运行jps命令,应该包含下面的结果:

   

     在其他节点上运行jps命令,应该包含下面的结果:

    

四:配置ssh免登陆:

  1.ssh-keygen -t rsa(四个回车),执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)

  
    2.将公钥拷贝到要免密登陆的目标机器上:ssh-copy-id shizhan2/shizhan3/shizhan5/shizhan6

五:验证是否启动成功:  

  HDFS管理界面:访问http://shizhan2:50070,可以看到如下图所示的结果:

  

  YARN管理界面,访问http://shizhan2:8088,可以看到如下图所示的结果:

  

五:出现的问题:

  Hadoop dataNode正常启动,但是live Nodes中确缺少节点:

  解决方案:修改vi /usr/local/src/hadoop-2.6.4/etc/hadoop/core-site.xml配置文件

  1. <property>
  2. <name>hadoop.tmp.dir</name>
  3. <value>/usr/local/src/hadoop-2.6.4/hdpdata</value>
  4. </property>

  之前因为配置的数据存放路径相同,所以报告中认为只有一个DataNode,所以在Web控制台dataNodes数目显示不全;

  

  

Hadoop_03_Hadoop分布式集群搭建的更多相关文章

  1. Hadoop上路-01_Hadoop2.3.0的分布式集群搭建

    一.配置虚拟机软件 下载地址:https://www.virtualbox.org/wiki/downloads 1.虚拟机软件设定 1)进入全集设定 2)常规设定 2.Linux安装配置 1)名称类 ...

  2. hadoop伪分布式集群搭建与安装(ubuntu系统)

    1:Vmware虚拟软件里面安装好Ubuntu操作系统之后使用ifconfig命令查看一下ip; 2:使用Xsheel软件远程链接自己的虚拟机,方便操作.输入自己ubuntu操作系统的账号密码之后就链 ...

  3. Hadoop分布式集群搭建

    layout: "post" title: "Hadoop分布式集群搭建" date: "2017-08-17 10:23" catalog ...

  4. hbase分布式集群搭建

    hbase和hadoop一样也分为单机版.伪分布式版和完全分布式集群版本,这篇文件介绍如何搭建完全分布式集群环境搭建. hbase依赖于hadoop环境,搭建habase之前首先需要搭建好hadoop ...

  5. 分布式实时日志系统(四) 环境搭建之centos 6.4下hbase 1.0.1 分布式集群搭建

    一.hbase简介 HBase是一个开源的非关系型分布式数据库(NoSQL),它参考了谷歌的BigTable建模,实现的编程语言为 Java.它是Apache软件基金会的Hadoop项目的一部分,运行 ...

  6. kafka系列二:多节点分布式集群搭建

    上一篇分享了单节点伪分布式集群搭建方法,本篇来分享一下多节点分布式集群搭建方法.多节点分布式集群结构如下图所示: 为了方便查阅,本篇将和上一篇一样从零开始一步一步进行集群搭建. 一.安装Jdk 具体安 ...

  7. MinIO 分布式集群搭建

    MinIO 分布式集群搭建 分布式 Minio 可以让你将多块硬盘(甚至在不同的机器上)组成一个对象存储服务.由于硬盘分布在不同的节点上,分布式 Minio 避免了单点故障. Minio 分布式模式可 ...

  8. 阿里云ECS服务器部署HADOOP集群(二):HBase完全分布式集群搭建(使用外置ZooKeeper)

    本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建,多添加了一个 datanode 节点 . 1 节点环境介绍: 1.1 环境介绍: 服务器:三台阿里 ...

  9. 阿里云ECS服务器部署HADOOP集群(三):ZooKeeper 完全分布式集群搭建

    本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建,多添加了一个 datanode 节点 . 1 节点环境介绍: 1.1 环境介绍: 服务器:三台阿里 ...

随机推荐

  1. c/c++编码规范(1)--头文件

    最近工作稍微轻松一点,就再学习了一下编码规范.遂记些笔记,以便查阅. 这次学习的是Google 开源项目风格指南中文版,地址是:http://zh-google-styleguide.readthed ...

  2. CTF—攻防练习之Capture the Flag

    主机:192.168.32.152 靶机:192.168.32.160 首先nmap扫描端口: ftp,ssh,http服务 dirb扫描目录,flag下有一个flag password目录下,查看源 ...

  3. mysql对字段的操作

    增: alter table 表名 add 字段名+数据类型, add 字段名+数据类型; alter table 表名 add primary key 字段: "添加主键" 删: ...

  4. P1062 数列 题解

    (题目为啥要强调用十进制输出呢,明明就是故意提醒) 分析一下样例 k=3k=3时,数列为:1,3,4,9,10,12,13..1,3,4,9,10,12,13.. 转换成三进制就是:1,10,11,1 ...

  5. http请求之of_ordering_http_get

    //Public function of_ordering_http_get (string as_url) returns string //string as_urllong ll_tempstr ...

  6. 安装calico

    安装docker:https://www.cnblogs.com/cjsblogs/p/8717304.html 安装etcd集群:https://www.cnblogs.com/cjsblogs/p ...

  7. maraidb忘记数据密码

    一.概述 服务器上安装了maraidb 数据库,但是很久未使用过它,需要使用时,忘记了密码, 此时可以给它重新设置密码. 二.操作 修改密码 修改 /etc/my.cnf,修改下图红色区域位置,修改成 ...

  8. git的常用指令(二) git add -A 、git add . 和 git add -u

    git add . :他会监控工作区的状态树,使用它会把工作时的所有变化提交到暂存区,包括文件内容修改(modified)以及新文件(new),但不包括被删除的文件. git add -u :他仅监控 ...

  9. vs 2017创建类时的默认模板修改

    思路:找到vs 2017安装目录---->找到模板文件---->修改 一般安装目录: C:\Program Files (x86)\Microsoft Visual Studio\2017 ...

  10. C#Socket发16进制以及进制转换

    string input = "Hello World!"; char[] values = input.ToCharArray(); foreach (char letter i ...