用来测试,我在VMware下用Centos7搭起一个三节点的Hadoop完全分布式集群。其中NameNode和DataNode在同一台机器上,如果有条件建议大家把NameNode单独放在一台机器上,因为NameNode是集群的核心承载压力是很大的。hadoop版本:Hadoop-2.7.4;

hadoopo1

hadoopo2

hadoopo3

Namenode ResourceManage SecondaryNamenode
Datanode Datanode Datanode
NodeManage NodeManage NodeManage

一、准备环境

  1. 准备三台节点(机器),要求:yum源挂载成功、网络设置可用(ip在同一网段,连接Xshell)、已安装Oracle8.0及以上版本JDK
  2. hadoop-2.7.4.tar.gz,hadoop2.x安装包

二、部署集群

    1. 创建Hadoop用户(三节点);
      su - root
      useradd hadoop
      passwd hadoop
    2. 在Hadoop用户家目录下创建安装目录(三节点);
      mkdir /home/hadoop/install  (安装目录)
      mkdir /home/hadoop/soft   (存放安装包)
    3. 解压hadoop安装包,通过Xshell等工具将安装包上传到~/soft目录中(hadoop01节点);
      tar –zxvf /home/hadoop/soft/hadoop-2.7.4.tar.gz  -C  /home/hadoop/install/

三、修改配置文件(hadoop01节点)

    1. cd到hadoop配置文件目录;
      su - hadoop
      cd  /home/hadoop/install/hadoop-2.7.4/etc/hadoop
    2. core-site.xml设置
      vim core-site.xml
      //在<configuration> 之间添加如下配置
      <property>
      <name>fs.defaultFS</name>
      <value>hdfs://hadoop01:9000</value>
      <!-- hadoop01:主机名,:端口 -->
      </property> <property>
      <name>hadoop.tmp.dir</name>
      <value>/data/hadoop/tmp</value>
      </property>
    3. hadoop-env.sh,JDK配置;
      vim hadoop-env.sh
      //修改等号后面的值
      //使用echo $JAVA_HOME 查看JDK安装路径
      export JAVA_HOME=/usr/local/jdk
    4. HDFS相关配置;
      vim  hdfs-site.xml
      //在<configuration> 之间添加如下配置
      <!-- secondaryNamenode地址 -->
      <property>
      <name>dfs.secondary.http.address</name>
      <value>hadoop03:</value>
      </property> <!-- 数据块冗余份数-->
      <property>
      <name>dfs.replication</name>
      <value></value>
      </property> <!-- edtis文件存放地址-->
      <property>
      <name>dfs.namenode.edits.dir</name>
      <value>/data/hadoop/namenode/name</value>
      </property> <!-- datanode数据目录存放地址-->
      <property>
      <name>dfs.datanode.data.dir</name>
      <value>/data/hadoop/datanode/data</value>
      </property> <!-- checkpoint数据目录存放地址-->
      <property>
      <name>dfs.namenode.checkpoint.dir</name>
      <value>/data/hadoop/namenode/namesecondary</value>
      </property>
    5. mapred-env.sh
      vim mapred-env.sh
      //修改export JAVA_HOME=/usr/local/jdk
    6. MR相关配置
      vim mapred-env.sh
      //修改export JAVA_HOME=/usr/local/jdk

      cp  mapred-site.xml.template  ./mapred-site.xml
      vim  mapred-site.xml
      //在<configuration> 之间添加如下配置

      <!-- 集群调度框架为YARN-->
      <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
      </property> <!-- 注意:"hadoop01"替换为NameNode所在主机名-->
      <property>
      <name>mapreduce.jobhistory.webapp.address</name>
      <value>hadoop01:</value>
      </property>
    7. YARN相关配置;
      vim  yarn-site.xml
      //在<configuration> 之间添加如下配置
      <!--resourcemanager主机名 -->
      <!-- 注意:"hadoop02"替换为resourcemanager所在主机名-->
      <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>hadoop02</value>
      </property> <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
      </property> <property>
      <name>yarn.resourcemanager.webapp.address</name>
      <value>hadoop02:</value>
      </property> <property>
      <name>yarn.nodemanager.resource.memory-mb</name>
      <value></value>
      </property> <!--nodemanager最多分配cpu虚拟核心个数 -->
      <property>
      <name>yarn.nodemanager.resource.cpu-vcores</name>
      <value></value>
      </property> <!--nodemanager最多内存大小 -->
      <property>
      <name>yarn.scheduler.maximum-allocation-mb</name>
      <value></value>
      </property> <!--作业调度过程中 作业单个内存最少内存大小 -->
      <property>
      <name>yarn.scheduler.minimum-allocation-mb</name>
      <value></value>
      </property> <!--作业调度过程中 作业单个最多的cpu分配 -->
      <property>
      <name>yarn.scheduler.maximum-allocation-vcores</name>
      <value></value>
      </property>
    8. 启动脚本配置;
      在调用脚本的过程中,start-dfs.sh和start-yarn.sh会使用该脚本进行datanode和ndoemanager的启动。
      vim slaves
      //将三台主机名写入后保存
      hadoop01
      hadoop02
      hadoop03

四、创建数据目录

  1. 创建Datanode节点数据目录(三节点);
    su – root
    mkdir -p /data/hadoop/tmp
    mkdir -p /data/hadoop/datanode/data
    chown hadoop:hadoop -R /data/hadoop
  2. 创建Namenode节点数据目录(hadoop01节点);
    su – root
    mkdir -p /data/hadoop/tmp
    mkdir -p /data/hadoop/namenode/name
    mkdir -p /data/hadoop/datanode/data
    mkdir -p /data/hadoop/namenode/namesecondary
    chown hadoop:hadoop -R /data/hadoop

五、配置hadoop环境变量(三节点)

su – root
        vim /etc/profile

//在文件末尾添加如下设置

//最后更新环境变量(root/hadoop)
        source /etc/profile

HADOOP_HOME=/home/hadoop/install/hadoop-2.7.
PATH=$PATH:$HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

六、配置SSH互信(三节点)

  1. 将三台节点ip添加到Hosts文件中;su – root
    vim /etc/hosts
    //加入三台节点的ip映射

    192.168.1.10    hadoop01
    192.168.1.11 hadoop02
    192.168.1.12 hadoop03
  1. 在hadoop用户下,生成密钥对(三节点);
    su – hadoop
    ssh-keygen

     

  1. 查看密钥,并将公钥发给三个个节点;
    cd /home/hadoop/.ssh/
    ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@hadoop01
    ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@hadoop02
    ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@hadoop03

七、分发hadoop安装目录(hadoop01)

scp  –r  ~/install  hadoop@hadoop02:~/install

scp  –r  ~/install  hadoop@hadoop03:~/install

八、格式化并且启动HDFS(重点)

    1. 在hadoop用户下,namenode节点上;
      su – hadoop
      hdfs namenode -format

九、启动集群

    1. 启动HDFS(hadoop01上);
      su – hadoop
      start-dfs.sh
    2. 启动YARN(hadoop02上);
      su – hadoop
      start-yarn.sh
    3. 查看进程(jps);


十、关闭集群

  1. 停止HDFS服务(hadoop01上)
    stop-dfs.sh
  2. 停止Yarn服务(hadoop02上)
    stop-yarn.sh

Hadoop 完全分布式部署(三节点)的更多相关文章

  1. ubuntu下hadoop完全分布式部署

    三台机器分别命名为: hadoop-master ip:192.168.0.25 hadoop-slave1 ip:192.168.0.26 hadoop-slave2 ip:192.168.0.27 ...

  2. Hadoop 完全分布式部署

    完全分布式部署Hadoop 分析: 1)准备3台客户机(关闭防火墙.静态ip.主机名称) 2)安装jdk 3)配置环境变量 4)安装hadoop 5)配置环境变量 6)安装ssh 7)集群时间同步 7 ...

  3. 【Hadoop 分布式部署 三:基于Hadoop 2.x 伪分布式部署进行修改配置文件】

    1.规划好哪些服务运行在那个服务器上 需要配置的配置文件 2. 修改配置文件,设置服务运行机器节点 首先在   hadoop-senior  的这台主机上 进行   解压 hadoop2.5   按照 ...

  4. hadoop完全分布式部署

    1.我们先看看一台节点的hdfs的信息:(已经安装了hadoop的虚拟机:安装hadoophttps://www.cnblogs.com/lyx666/p/12335360.html) start-d ...

  5. Hadoop伪分布式部署

    一.Hadoop组件依赖关系: 步骤 1)关闭防火墙和禁用SELinux 切换到root用户 关闭防火墙:service iptables stop Linux下开启/关闭防火墙的两种方法 1.永久性 ...

  6. ubuntu hadoop伪分布式部署

    环境 ubuntu hadoop2.8.1 java1.8 1.配置java1.8 2.配置ssh免密登录 3.hadoop配置 环境变量 配置hadoop环境文件hadoop-env.sh core ...

  7. Hadoop+HBase分布式部署

    test 版本选择

  8. hadoop(七)集群配置同步(hadoop完全分布式四)|9

    前置配置:rsync远程同步|xsync集群分发(hadoop完全分布式准备三)|9 1. 分布式集群分配原则 部署分配原则 说明Namenode和secondarynamenode占用内存较大,建议 ...

  9. zabbix分布式部署和主机自动发现

    1.分布式部署原理 1.1Zabbix分布式部署的原理 传统的部署架构,是server直接监控所有的主机,全部主机的数据都是有server自己来采集和处理,server端的压力比较大,当监控主机数量很 ...

随机推荐

  1. MongoDB 学习笔记四 C#调用MongoDB

    驱动 下载 https://github.com/mongodb/mongo-csharp-driver/downloads 项目地址: https://github.com/mongodb/mong ...

  2. JavaScript 实现用户点击图片放大

    JavaScript 实现用户点击图片放大 一.契机 情况是这样的,之前推荐朋友去建站.后面他专门写了一篇文章说如何实现 "用户点击图片实现放大效果",俺就好好 "拜读& ...

  3. Squid代理服务器(四)——反向代理

    一.概念 反向代理主要实现的是我们内部网站的加速功能 ,许多大型的门户网站架构中都采用了反向代理加速,使用比较多的是nginx.squid等,通过squid反向代理加速网站的访问速度,可将不同的url ...

  4. P1444 [USACO1.3]虫洞wormhole

    luogu P1444 [USACO1.3]虫洞wormhole 首先感谢ghj的讲解 题目描述 农夫约翰爱好在周末进行高能物理实验的结果却适得其反,导致N个虫洞在农场上(2<=N<=12 ...

  5. Android Fragment原理及应用

    1.Fragment简介 Fragment(片段) 表示 Activity 中的行为或用户界面部分.您可以将多个片段组合在一个 Activity 中来构建多窗格 UI,以及在多个 Activity 中 ...

  6. tomcat在bin下的startup.bat下启动报错

    测试环境是否安装配置好. 如果环境配置好.报错如下:或者是730013 -----------解决问题:是因为tomcat端口被占用.查看是否启动两个tomcat

  7. [HNOI2013]题解

    代码在最后 [HNOI2013]比赛 记忆化搜索 把每一位还需要多少分用\(27\)进制压进\(long\) \(long\),\(map\)记忆化一下即可 [HNOI2013]消毒 先考虑在二维平面 ...

  8. python2.x提示这个错误:UnicodeDecodeError: 'ascii' codec can't decode byte 0xe8 in position

    查了好久下面这个方法可用: 发现应该是因为python2.x的默认编码是ascii,而代码中可能由utf-8的字符导致,解决方法是设置utf-8. 找到出错的文件,在import后增加下面几行: #! ...

  9. java se系列(十二)集合

    1.集合 1.1.什么是集合 存储对象的容器,面向对象语言对事物的体现,都是以对象的形式来体现的,所以为了方便对多个对象的操作,存储对象,集合是存储对象最常用的一种方式.集合的出现就是为了持有对象.集 ...

  10. es put mapping

    fd dg public Map<String, Map<String, String>> javaBeanToMapping(Object instance, List< ...