• 配置环境要求:

  1. Centos7
  2. jdk 8
  3. Vmware 14 pro
  4. hadoop 3.1.1
  • Hadoop下载

  • 安装4台虚拟机,如图所示

  1. 克隆之后需要更改网卡选项,ip,mac地址,uuid

  2. 重启网卡:
  3. 为了方便使用,操作时使用的root账户

  • 设置机器名称

  1. 再使用hostname命令,观察是否更改

    类似的,更改其他三台机器hdp-02、hdp-03、hdp-04。

  • 在任意一台机器Centos7上修改域名映射

    1. vi /etc/hosts
    2. 修改如下
    3. 使用scp命令发送其他克隆机上    scp /etc/hosts 192.168.126.124:/etc/

  • 给四台机器生成密钥文件

  1.  确认生成。
  2. 把每一台机器的密钥都发送到hdp-01上(包括自己)
  3. 将所有密钥都复制到每一台机器上
  • 在每一台机器上测试

  1. 无需密码则成功,保证四台机器之间可以免密登录
  • 安装Hadoop

  1. 在usr目录下创建Hadoop目录,以保证Hadoop生态圈在该目录下。
  2. 使用xsell+xFTP传输文
  3. 解压缩Hadoop

  • 配置java与hadoop环境变量

 export JAVA_HOME=/usr/jdk/jdk1..0_131
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH export HADOOP_HOME=/usr/hadoop/hadoop-3.1./
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

注意:以上四台机器都需要配置环境变量

  • 修改etc/hadoop中的配置文件

    注:除了个别提示,其余文件只用修改hdp-01中的即可

  1. 修改core-site.xml

     <configuration>
    <property>
    <name>fs.defaultFS</name>
    <!-- 注意别的slave机需要识别master主机名,否则将不能与主机hdp-01沟通 -->
    <value>hdfs://hdp-01:9000</value>
    </property>
    <property>
    <name>hadoop.tmp.dir</name>
    <!-- 以下为存放临时文件的路径 -->
    <value>/opt/hadoop/hadoop-3.1.1/data/tmp</value>
    </property>
    </configuration>
  2. 修改hadoop-env.sh

     export JAVA_HOME=/usr/jdk/jdk1.8.0_131

    注:该步骤需要四台都配置

  3. 修改hdfs-site.xml

     <configuration>
    <property>
    <name>dfs.namenode.http-address</name>
    <!-- hserver1 修改为你的机器名或者ip -->
    <value>hdp-01:50070</value>
    </property>
    <property>
    <name>dfs.namenode.name.dir</name>
    <value>/hadoop/name</value>
    </property>
    <property>
    <name>dfs.replication</name>
    <!-- 备份次数 -->
    <value>1</value>
    </property>
    <property>
    <name>dfs.datanode.data.dir</name>
    <value>/hadoop/data</value>
    </property> </configuration>
  4. 修改mapred-site.xml

     <configuration>
    <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>
    </configuration>
  5. 修改 workers

     hdp-
    hdp-
    hdp-
    hdp-
  6. 修改yarn-site.xml文件

     <configuration>
    
     <!-- Site specific YARN configuration properties -->
    <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hdp-01</value>
    </property>
    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    </property>
    <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
    <name>yarn.nodemanager.resource.cpu-vcores</name>
    <value>1</value>
    </property> </configuration>

    注:可以把整个/usr/hadoop目录所有文件复制到其余三个机器上 还是通过scp 嫌麻烦的可以先整一台机器,然后再克隆

  • 启动Hadoop

  1. 在namenode上初始化

    因为hdp-01是namenode,hdp-02、hdp=03和hdp-04都是datanode,所以只需要对hdp-01进行初始化操作,也就是对hdfs进行格式化。

    执行初始化脚本,也就是执行命令:hdfs namenode  -format

    等待一会后,不报错返回 “Exiting with status 0” 为成功,“Exiting with status 1”为失败

  2. 在namenode上执行启动命令

    直接执行start-all.sh 观察是否报错,如报错执行一下内容

    $ vim sbin/start-dfs.sh
    $ vim sbin/stop-dfs.sh

    在空白位置加入

     HDFS_DATANODE_USER=root
    
     HADOOP_SECURE_DN_USER=hdfs
    
     HDFS_NAMENODE_USER=root
    
     HDFS_SECONDARYNAMENODE_USER=root

    $ vim sbin/start-yarn.sh 
    $ vim sbin/stop-yarn.sh

    在空白位置加入

     YARN_RESOURCEMANAGER_USER=root
    
     HADOOP_SECURE_DN_USER=yarn
    
     YARN_NODEMANAGER_USER=root

    $ vim start-all.sh

    $ vim stop-all.sh

     TANODE_USER=root
    HDFS_DATANODE_SECURE_USER=hdfs
    HDFS_NAMENODE_USER=root
    HDFS_SECONDARYNAMENODE_USER=root
    YARN_RESOURCEMANAGER_USER=root
    HADOOP_SECURE_DN_USER=yarn
    YARN_NODEMANAGER_USER=root

    配置完毕后执行start-all.sh

    运行jps

    显示6个进程说明配置成功

  3. 去浏览器检测一下  http://hdp-01:50070
  4. 创建目录 上传不成功需要授权

    hdfs dfs -chmod -R a+wr hdfs://hdp-01:9000/
  5. //查看容量
    hadoop fs -df -h /

  6. 查看各个机器状态报告
    hadoop dfsadmin -report

Centos7 搭建 hadoop3.1.1 集群教程的更多相关文章

  1. CentOS7搭建Hadoop-3.3.0集群手记

    前提 这篇文章是基于Linux系统CentOS7搭建Hadoop-3.3.0分布式集群的详细手记. 基本概念 Hadoop中的HDFS和YARN都是主从架构,主从架构会有一主多从和多主多从两种架构,这 ...

  2. CentOS7搭建Hadoop2.8.0集群及基础操作与测试

    环境说明 示例环境 主机名 IP 角色 系统版本 数据目录 Hadoop版本 master 192.168.174.200 nameNode CentOS Linux release 7.4.1708 ...

  3. CentOS7搭建 Hadoop + HBase + Zookeeper集群

    摘要: 本文主要介绍搭建Hadoop.HBase.Zookeeper集群环境的搭建 一.基础环境准备 1.下载安装包(均使用当前最新的稳定版本,截止至2017年05月24日) 1)jdk-8u131 ...

  4. 18-基于CentOS7搭建RabbitMQ3.10.7集群镜像队列+HaProxy+Keepalived高可用架构

    集群架构 虚拟机规划 IP hostname 节点说明 端口 控制台地址 192.168.247.150 rabbitmq.master rabbitmq master 5672 http://192 ...

  5. CentOS7搭建Pacemaker高可用集群(1)

    Pacemaker是Red Hat High Availability Add-on的一部分.在RHEL上进行试用的最简单方法是从Scientific Linux 或CentOS存储库中进行安装 环境 ...

  6. Storm(二)CentOS7.5搭建Storm1.2.2集群

    一.Storm的下载 官网下载地址:http://storm.apache.org/downloads.html 这里下载最新的版本storm1.2.2,进入之后选择一个镜像下载 二.Storm伪分布 ...

  7. HBase(二)CentOS7.5搭建HBase1.2.6HA集群

    一.安装前提 1.HBase 依赖于 HDFS 做底层的数据存储 2.HBase 依赖于 MapReduce 做数据计算 3.HBase 依赖于 ZooKeeper 做服务协调 4.HBase源码是j ...

  8. centos7下安装zookeeper&zookeeper集群的搭建

    一.centos7下安装zookeeper 1.zookeeper 下载地址 https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/ 2.安装步骤 ...

  9. CentOS7.5搭建spark2.3.1集群

    一 下载安装包 1 官方下载 官方下载地址:http://spark.apache.org/downloads.html 2  安装前提 Java8         安装成功 zookeeper  安 ...

随机推荐

  1. CSS3中的Flexbox弹性布局(二)

    flexbox详解 flexbox的出现是为了解决复杂的web布局,因为这种布局方式很灵活.容器的子元素可以任意方向进行排列.此属性目前处于非正式标准. flex布局模型不同于块和内联模型布局,块和内 ...

  2. Anaconda教程

      python虚拟环境 当安装新的外部python包时,为了保证原版python的纯净,避免其他项目调试时出现错误,可使用Anaconda创建虚拟python进行调试和操作 创建新的虚拟环境(Win ...

  3. [C#] SHA1校验函数用法

    首先引用这个命名空间 using System.Security.Cryptography; //建立SHA1对象 SHA1 sha = new SHA1CryptoServiceProvider() ...

  4. 【Leetcode】【Easy】Implement strStr()

    Implement strStr(). Returns the index of the first occurrence of needle in haystack, or -1 if needle ...

  5. Java程序员面试题集2

    51.类ExampleA 继承Exception,类ExampleB 继承ExampleA. 有如下代码片断: try{ throw new ExampleB("b") }catc ...

  6. 百度地图JavaScript开发入门先知

    最近项目紧急开发了一些百度地图的功能,觉得百度地图实数强大!于是今天不忙总结一下,看到不错的文章先转载. 文章出处:https://www.opengps.cn/Blog/View.aspx?id=1 ...

  7. python入门23 pymssql模块(python连接sql server增删改数据 )

    增删改数据必须connect.commit()才会生效 回滚函数 connect.rollback() 连接数据库 ''' dinghanhua sql server增删改 ''' import py ...

  8. HDU 6214 最小割边

    双倍经验题:HDU 6214,3987 求最小割的最小边. 方案一: 首先跑最大流,这个时候割上都满载了,于是将满载的边 cap = 1,其他 inf ,再跑最大流,这个时候限定这个网络的关键边就是那 ...

  9. 贪心算法,今年暑假不AC

    题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=2037 活动安排问题,可用贪心. 1.把活动按结束时间递增排序. 2.直观上,选择相对活动为未安排活动留 ...

  10. table自适应

    当table大于屏幕时,table可以左右滑动 //给table的父元素设置样式 .edit_table{ width:100%; overflow: auto; }