useradd –m hadoop –s /bin/bash

passwd hadoop
 
增加sudo权限
chmod u+w /etc/sudoers
vi /etc/sudoers
root    ALL=(ALL)       ALL

hadoop ALL=(ALL) ALL

chmod u-w /etc/sudoers

 
 
su hadoop && cd ~
 
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz
 
tar -zxf hadoop-2.7.7.tar.gz
sudo mkdir /usr/local/hadoop
sudo mv hadoop-2.7.7 /usr/local/hadoop
mkdir dfs
mkdir dfs/name
mkdir dfs/data
mkdir tmp
 
cd /usr/local/hadoop/hadoop-2.7.7/etc/hadoop
 
涉及到的配置文件有7个:

安装路径/hadoop-2.7.7/etc/hadoop/hadoop-env.sh

安装路径/hadoop-2.7.7/etc/hadoop/yarn-env.sh

安装路径/hadoop-2.7.7/etc/hadoop/slaves

安装路径/hadoop-2.7.7/etc/hadoop/core-site.xml

安装路径/hadoop-2.7.7/etc/hadoop/hdfs-site.xml

安装路径/hadoop-2.7.7/etc/hadoop/mapred-site.xml

安装路径/hadoop-2.7.7/etc/hadoop/yarn-site.xml

 
hadoop-env.sh和yarn-env.sh 里修改JAVA_HOME
===
cat core-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
      <property>
               <name>fs.defaultFS</name>
               <value>hdfs://localhost:8020</value>
      </property>
      <property>
               <name>io.file.buffer.size</name>
               <value>131072</value>
       </property>
      <property>
              <name>hadoop.tmp.dir</name>
               <value>file:/home/hadoop/tmp</value>
              <description>Abase for other temporary   directories.</description>
      </property>
       <property>
               <name>hadoop.proxyuser.hadoop.hosts</name>
              <value>*</value>
      </property>
      <property>
               <name>hadoop.proxyuser.hadoop.groups</name>
              <value>*</value>
      </property>
      <property>
       <name>hadoop.proxyuser.root.groups</name>
       <value>*</value>
       <description>Allow the superuser oozie to impersonate any members of the group group1 and group2</description>
     </property>
     <property>
       <name>hadoop.proxyuser.root.hosts</name>
       <value>*</value>
       <description>The superuser can connect only from host1 and host2 to impersonate a user</description>
     </property>

</configuration>

===
cat hdfs-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
       <property>
               <name>dfs.namenode.secondary.http-address</name>
              <value>localhost:9001</value>
       </property>
     <property>
            <name>dfs.namenode.name.dir</name>
             <value>file:/home/hadoop/dfs/name</value>
       </property>
      <property>
              <name>dfs.datanode.data.dir</name>
              <value>file:/home/hadoop/dfs/data</value>
       </property>
       <property>
              <name>dfs.replication</name>
              <value>3</value>
        </property>
        <property>
                 <name>dfs.webhdfs.enabled</name>
                 <value>true</value>
         </property>
</configuration>
===

cp mapred-site.xml.template mapred-site.xml
 
cat mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
       <property>
               <name>mapreduce.framework.name</name>
               <value>yarn</value>
          </property>
         <property>
                 <name>mapreduce.jobhistory.address</name>
                 <value>localhost:10020</value>
         </property>
         <property>
                <name>mapreduce.jobhistory.webapp.address</name>
               <value>localhost:19888</value>
      </property>
</configuration>
=======

 cat yarn-site.xml
<?xml version="1.0"?>
<configuration>
<property>
              <name>yarn.nodemanager.aux-services</name>
              <value>mapreduce_shuffle</value>
       </property>
       <property>                                                               
              <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
              <value>org.apache.hadoop.mapred.ShuffleHandler</value>
       </property>
       <property>
              <name>yarn.resourcemanager.address</name>
              <value>localhost:8032</value>
      </property>
      <property>
              <name>yarn.resourcemanager.scheduler.address</name>
              <value>localhost:8030</value>
      </property>
      <property>
           <name>yarn.resourcemanager.resource-tracker.address</name>
            <value>localhost:8031</value>
     </property>
     <property>
              <name>yarn.resourcemanager.admin.address</name>
              <value>localhost:8033</value>
      </property>
      <property>
              <name>yarn.resourcemanager.webapp.address</name>
              <value>localhost:8088</value>
      </property>
</configuration>
====
设置环境变量
HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7
并将其中的bin和sbin加入path中
 
格式化namenode:hdfs namenode –format或使用hadoop namenode format
 
$ start-dfs.sh
Starting namenodes on [localhost]
localhost: starting namenode, logging to /usr/local/hadoop/hadoop-2.7.7/logs/hadoop-hadoop-namenode-mhc-linux.out
localhost: starting datanode, logging to /usr/local/hadoop/hadoop-2.7.7/logs/hadoop-hadoop-datanode-mhc-linux.out
Starting secondary namenodes [localhost]
localhost: starting secondarynamenode, logging to /usr/local/hadoop/hadoop-2.7.7/logs/hadoop-hadoop-secondarynamenode-mhc-linux.out
 
 启动namenode报错

ulimit -a for user root

stop-dfs.sh

这里我们直接重新格式化namenode,然后启动namenode就可以了

 hadoop namenode -format  

$ start-dfs.sh
ps -ef|grep node 有三个进程
proc_namenode proc_datanode proc_secondarynamenode start-yarn.sh 访问http://localhost:8088
 

hadoop2.7.7 测试安装 centos7的更多相关文章

  1. 虚拟机安装CentOS7 Minimal、jdk和hadoop

    虚拟机安装CentOS7 Minimal.jdk和hadoop Table of Contents 1. 安装版本 2. PD安装 3. vim安装和配置 4. 主机名变为bogon的解决办法 5. ...

  2. hadoop2.7.1 HA安装部署(转)

    hadoop集群规划 目标:创建2个NameNode,做高可用,一个NameNode挂掉,另一个能够启动:一个运行Yarn,3台DataNode,3台Zookeeper集群,做高可用. 在 hadoo ...

  3. VMware中安装CentOS7网络配置静态IP地址,常用配置和工具安装

    VMware中安装CentOS7网络配置静态IP地址,常用配置和工具安装在阿里云开源镜像地址下载镜像Index of /centos/7.2.1511/isos/x86_64/http://mirro ...

  4. hadoop2.1.0编译安装教程

    由于现在hadoop2.0还处于beta版本,在apache官方网站上发布的beta版本中只有编译好的32bit可用,如果你直接下载安装在64bit的linux系统的机器上,运行会报一个INFO ut ...

  5. hadoop2.1.0和hadoop2.2.0编译安装教程

    由于现在hadoop2.0还处于beta版本,在apache官方网站上发布的beta版本中只有编译好的32bit可用,如果你直接下载安装在64bit的linux系统的机器上,运行会报一个INFO ut ...

  6. centOS7 mini配置linux服务器(一)安装centOs7

    1. 准备centos-7 (minni镜像) 官网地址http://isoredirect.centos.org/centos/7/isos/x86_64/CentOS-7-x86_64-Minim ...

  7. Vmware安装CentOs7+gitlab(一)

    本篇文章主要介绍了VMware安装Centos7超详细过程(图文),具有一定的参考价值,感兴趣的小伙伴们可以参考一下 1.软硬件准备 软件:推荐使用VMwear,我用的是VMwear 12 镜像:Ce ...

  8. Linux环境搭建 | 手把手教你如何安装CentOS7虚拟机

    centos 下载地址: 可以去官网下载最新版本:https://www.centos.org/download/ 以下针对各个版本的ISO镜像文件,进行一一说明: CentOS-7.0-x86_64 ...

  9. VM安装centos7

    镜像:笔者采用的是CentOS-7-x86_64-Minimal-1810.iso版本 1.创建新的虚拟机 2.典型安装与自定义安装 典型安装:VMwear会将主流的配置应用在虚拟机的操作系统上,对于 ...

随机推荐

  1. Access 分页

    access分页 pageSize 每页显示多少条数据 pageNumber 页数 从客户端传来 pages) SQL语句 select top pageSize * from 表名 where id ...

  2. .NET发送邮箱(验证码)

    先看下前端: 写代码前先设置: 一:登录QQ邮箱,点击设置 二: 三: //下面开始敲代码... //两个命名空间 //using System.Net; //using System.Net.Mai ...

  3. TCP/IP_网络基础知识

    今天看到k8s的网络,顿感网络知识不是特别扎实,立马回头补一下Tcp-ip知识,顺便记录下学习的过程: 计算机与网络发展的7个阶段: 批处理时代(计算机按照顺序处理,50年代)->分时系统时代( ...

  4. IDEA集成git和使用步骤

    2018年07月20日 11:26:29 完猛 阅读数:3246    版权声明:本文为博主原创文章,未经博主允许不得转载. https://blog.csdn.net/miwanmeng/artic ...

  5. bootstrap-datepicker实现日期input readonly 标签中选择时间功能

    引用datepicker css,js,zh-CH文件 ps: 都是基于bootstrap,所以得先引入bootstrap文件才可以使用 <link href="https://cdn ...

  6. Apache-Axis小结

    以前用过axis, 不过好久不弄, 有忘记了.很多很多东西放在收藏夹里面, 但是长时间不去看,结果就是还是不熟悉!现在再简单总结一下吧. Axis开发服务器端webservice其实很简单. 1 下载 ...

  7. django相关

    后台运行django:https://blog.csdn.net/rnger/article/details/79907884 nohup python manage.py runserver 0.0 ...

  8. spark 常用技巧总结

    解析url scala> import java.net.URLimport java.net.URL scala> val urlstr="http://www.baidu.c ...

  9. PerformCallback(珍藏版)

    <%@ Page Language="C#" AutoEventWireup="true" CodeFile="PerformCallback. ...

  10. git fail to push some refs....

    出现错误的主要原因是github中的README.md文件不在本地代码目录中 可以通过如下命令进行代码合并[注:pull=fetch+merge] git pull --rebase origin m ...