一、准备安装介质

a)、hadoop-2.8.0.tar

b)、jdk-7u71-linux-x64.tar

二、节点部署图

三、安装步骤

环境介绍:

主服务器ip:192.168.80.128(master)  NameNode  SecondaryNameNode ResourceManager

从服务器ip:192.168.80.129(slave1)  DataNode NodeManager

从服务器ip: 192.168.80.130(slave2)  DataNode NodeManager

1、在三台机器上配置服务器域名

192.168.80.128 master
192.168.80.129 slave1
192.168.80.130 slave2

2、注意:关闭防火墙

systemctl stop firewalld.service #停止

firewall systemctl disable firewalld.service  #禁止firewall开机启动

firewall-cmd --state #查看默认防火墙状态(关闭后显示notrunning,开启后显示running)

3.上传安装包

1)JDK安装包 jdk-7u71-linux-x64.tar.gz

2)hadoop安装包 hadoop-2.8.0.tar.gz

4.安装JDK

1)解压JDK tar -zxvf jdk-7u71-linux-x64.tar.gz

5)配置环境变量 vi /etc/profile

6)在文件最后加入JDK配置

JAVA_HOME=/home/hadoop/jdk1.7.0_71

PATH=$JAVA_HOME/bin:$PATH

CLASSPATH=.:$JAVA_HOME/lib/dt.jar:

$JAVA_HOME/lib/tools.jar

export JAVA_HOME

export PATH

export CLASSPATH

7)退出当前用户,重新登录,检查JDK安装是否成功 java -version

8)按照以上操作,重复安装其他两台机器

9、安装Hadoop

1)解压Hadoop tar -zxvf hadoop-2.8.0.tar.gz

2)配置环境变量 vi /etc/profile

export HADOOP_HOME=/home/hadoop/hadoop-2.8.0

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

4)退出当前用户,重新登录,检查Hadoop安装是否成功 hadoop version

5)进入/home/hadoop/hadoop-2.8.0/etc/hadoop目录

6)打开hadoop-2.8.0/etc/hadoop/hadoop-env.sh文件

export JAVA_HOME=/home/hadoop/jdk1.7.0_71

10)配置hadoop-2.8.0/etc/hadoop/slaves文件,增加slave主机名

slave1

slave2

11)配置hadoop-2.8.0/etc/hadoop/core-site.xml

<configuration>

<property>

  <name>fs.defaultFS</name>

  <value>hdfs://master:9000</value>

</property>

<!-- Size of read/write buffer used in SequenceFiles. -->

<property>

  <name>io.file.buffer.size</name>

  <value>131072</value>

</property>

<!-- 指定hadoop临时目录,自行创建 -->

<property>

  <name>hadoop.tmp.dir</name>

  <value>/home/chenyun/hadoop/tmp</value>

</property>

</configuration>

12)配置hadoop-2.8.0/etc/hadoop/hdfs-site.xml

<configuration>

<property>

  <name>dfs.namenode.secondary.http-address</name>

  <value>master:50090</value>

</property>

<property>

  <name>dfs.replication</name>

<value>2</value>

</property>

<!-- 指定namenode数据存放临时目录,自行创建 -->

<property>

  <name>dfs.namenode.name.dir</name>

  <value>file:/home/chenyun/hadoop/hdfs/name</value>

</property>

<!-- 指定datanode数据存放临时目录,自行创建 -->

<property>

  <name>dfs.datanode.data.dir</name>

  <value>file:/home/chenyun/hadoop/hdfs/data</value>

</property>

</configuration>

13)配置hadoop-2.8.0/etc/hadoop/yarn-site.xml <configuration>

<!-- Site specific YARN configuration properties -->

<!-- Configurations for ResourceManager -->

<property>

  <name>yarn.nodemanager.aux-services</name>

  <value>mapreduce_shuffle</value>

</property>

<property>

  <name>yarn.resourcemanager.address</name>

  <value>master:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>master:8030</value>

</property>

<property>

  <name>yarn.resourcemanager.resource-tracker.address</name>

  <value>master:8031</value>

</property>

<property>

  <name>yarn.resourcemanager.admin.address</name>

  <value>master:8033</value>

</property>

<property>

  <name>yarn.resourcemanager.webapp.address</name>

  <value>master:8088</value>

</property>

</configuration>

14)配置hadoop-2.8.0/etc/hadoop/mapred-site.xml

注意: 因为默认没有mapred-site.xml,所以先要复制一份,shell命令如下:

cp mapred-site.xml.template mapred-site.xml

然后在mapred-site.xml加入以下配置

<configuration>

<property>

  <name>mapreduce.framework.name</name>

  <value>yarn</value>

</property>

</configuration>

15)把配置好的文件,复制到从节点

scp -r hadoop root@slave1:/home/hadoop/hadoop-2.8.0/etc

scp -r hadoop root@slave2:/home/hadoop/hadoop-2.8.0/etc

注意:同时需要把文件夹也要给拷贝过去

scp -r hadoop root@slave1:/home/chenyun/

scp -r hadoop root@slave2:/home/chenyun/

16)格式化节点

cd hadoop-2.8.0/sbin

hdfs namenode -format

17)hadoop集群全部启动

cd hadoop-2.8.0/sbin

./start-all.sh

18)启动JobHistoryServer  备注(查看MapReduce历史执行记录,和hadoop关系不大,可忽略此步骤)

cd hadoop-2.8.0/sbin

./mr-jobhistory-daemon.sh   start historyserver

19)查看启动进程是否正常

在master节点输入 jps命令,将会显示以下进程:

3458 Jps
3150 SecondaryNameNode
2939 NameNode
3364 ResourceManager

在slave1、slave2上输入jps命名,将会显示以下进程:

2969 NodeManager
3191 Jps
2801 DataNode

如果进程不正常的话,进入hadoop-2.8.0/logs查看异常日志

master节点

1、hadoop-2.8.0/logs/hadoop-root-namenode-master.log    #namenode日志

2、hadoop-root-secondarynamenode-master.log                 #SecondaryNameNode日志

3、yarn-root-resourcemanager-master.log                          #ResourceManager日志

slave1、slave2节日

4、hadoop-root-datanode-slave1.log                                  #DataNode日志

5、yarn-root-nodemanager-slave1.log                                #NodeManager日志

20)通过web UI访问

hadoop http://192.168.80.128:50070  #整个集群

http://192.168.80.128:50090  #SecondaryNameNode的情况

http://192.168.80.128:8088   #resourcemanager的情况

http://192.168.80.128:19888  #historyserver(MapReduce历史运行情况)

注意:

如果master节点一直没有namenode进程的话,集群可以分开启动

1)启动namenode:sbin/hadoop-daemon.sh start namenode

2)sbin/hadoop-daemon.sh start datanode

Hadoop集群搭建-Hadoop2.8.0安装(三)的更多相关文章

  1. Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)--------hadoop环境的搭建

    Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)------https://blog.csdn.net/pucao_cug/article/details/71698903 ...

  2. 分布式集群搭建(hadoop2.6.0+CentOS6.5)

    摘要:之前安装过hadoop1.2.1集群,发现比较老了,后来安装cloudera(hadoop2.6.0),发现集成度比较高,想知道原生的hadoop什么样子,于是着手搭建一个伪分布式集群(三台), ...

  3. Hadoop集群搭建-full完全分布式(三)

    环境:Hadoop-2.8.5 .centos7.jdk1.8 一.步骤 1).4台centos虚拟机 2). 将hadoop配置修改为完全分布式 3). 启动完全分布式集群 4). 在完全分布式集群 ...

  4. Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)

    1下载hadoop 2安装3个虚拟机并实现ssh免密码登录 2.1安装3个机器 2.2检查机器名称 2.3修改/etc/hosts文件 2.4 给3个机器生成秘钥文件 2.5 在hserver1上创建 ...

  5. hadoop集群搭建datenode为0问题的解决

       搭建了一个小的实验集群,一共4台机器,一台namenode,三台datenode.运行start-all,发如今namenode上没有报不论什么错误,可是启动后直接显示datenode数量为0. ...

  6. Hadoop集群搭建安装过程(三)(图文详解---尽情点击!!!)

    Hadoop集群搭建安装过程(三)(图文详解---尽情点击!!!) 一.JDK的安装 安装位置都在同一位置(/usr/tools/jdk1.8.0_73) jdk的安装在克隆三台机器的时候可以提前安装 ...

  7. Hadoop集群搭建-04安装配置HDFS

    Hadoop集群搭建-05安装配置YARN Hadoop集群搭建-04安装配置HDFS  Hadoop集群搭建-03编译安装hadoop Hadoop集群搭建-02安装配置Zookeeper Hado ...

  8. Hadoop集群搭建-03编译安装hadoop

    Hadoop集群搭建-05安装配置YARN Hadoop集群搭建-04安装配置HDFS  Hadoop集群搭建-03编译安装hadoop Hadoop集群搭建-02安装配置Zookeeper Hado ...

  9. Hadoop集群搭建安装过程(一)(图文详解---尽情点击!!!)

    Hadoop集群搭建(一)(上篇中讲到了Linux虚拟机的安装) 一.安装所需插件(以hadoop2.6.4为例,如果需要可以到官方网站进行下载:http://hadoop.apache.org) h ...

随机推荐

  1. select与stdio混合使用的不良后果

    参考以下链接自己补充实验:http://www.cppblog.com/mysileng/archive/2013/01/15/197284.aspx?opt=admin int main(int a ...

  2. Perl语言入门--3--perl的控制结构

    表达式真假值总结: 表达式不一定是逻辑表达式,但一定要得出真假值   假值:逻辑值为假 值为0 字符串为空 列表为空 undef 其他情况为真 1.if {} elsif {} else {} 2.u ...

  3. Linux 之 文件内容查看

    文件内容查看 参考教程:[千峰教育] 文件内容查看: cat: 作用:一次性顺序显示文件的所有内容 格式:cat file tac: 作用:一次性倒序显示文件的所有内容 格式:tac file hea ...

  4. 对于Redux的理解

    在移动端项目,经常会在不同view中进行传递数据,事件.当事件比较少时,我们可以通过常规的事件流方法,注册,发布事件 进行响应等等.但是项目中一个事件多处响应时候,就会使程序变得相当复杂.在现在的Vu ...

  5. 如何快速定位TempDB产生问题

    步骤1.TempDB压力诊断 等待类型诊断 TempDB的争用压力在等待篇中已经简单介绍,等待的表现为 pagelatch_类等待,等待的资源是 “2: X :X ” tempDB所在磁盘的响应时间 ...

  6. 《从零开始搭建游戏服务器》项目管理工具Maven

    简介 什么是Maven?Maven是一个项目管理和综合工具,提供了开发人员构建一个完整的生命周期框架. Maven使用标准的目录结构和默认构建生命周期,在多个开发团队环境时,Maven可以设置按标准在 ...

  7. Mybatis Generator插件和PageHelper使用

    最近,开始接触web项目开发,项目使用springboot和mybatis,以前一直以为开发过程中实体类,mybatis的xml文件都需要自己手动的去创建. 同事推荐说Mybatis Generato ...

  8. Codeforces Round #295 (Div. 1) C. Pluses everywhere

    昨天ZZD大神邀请我做一道题,说这题很有趣啊. 哇,然后我被虐了. Orz ZZD 题目大意: 你有一个长度为n的'0-9'串,你要在其中加入k个'+'号,每种方案就会形成一个算式,算式算出来的值记做 ...

  9. Chrom查看Flash缓存文件及Flash下载方法

    比如在优酷看视频时,或者熊猫直播,如果使用Flash进行播放的基本都会先缓存在本地,只不过这个缓存的名字后缀不叫flv,而是类似tmp这样:通常只要找到这个缓存文件,然后改为flv即可播放:如果出现文 ...

  10. Go -- etcd详解(转)

    CoreOS是一个基于Docker的轻量级容器化Linux发行版,专为大型数据中心而设计,旨在通过轻量的系统架构和灵活的应用程序部署能力简化数据中心的维护成本和复杂度.CoreOS作为Docker生态 ...