环境:

Ubuntu16.04

机器:

192.168.1.105
namenode

192.168.1.102
datanode1

0、配置节点信息

sudo
gedit /etc/hosts

#加入下面的信息

192.168.1.105
namenode

192.168.1.102
datanode1

sudo
gedit /etc/hostname #修改主机名称

#上面的内容电脑重启后生效

1、在Ubuntu下创建hadoop组和hadoop用户

1.1、创建hadoop用户组

如果不是在root下登录需要

@ubuntu:~$
sudo addgroup hadoop

1.2、创建hadoop用户

@ubuntu:~$
sudo adduser -ingroup hadoop hadoop

1.3、为hadoop用户添加权限(和root权限一样)

sudo
gedit /etc/sudoers

在#User
privilege specification 添加

root ALL=(ALL:ALL)
ALL

hadoop ALL=(ALL:ALL)
ALL

2、用新增加的hadoop用户登录Ubuntu系统

su
hadoop

3、安装ssh

3.1、下载:sudo
apt-get install openssh-server

安装完成后,启动服务

3.2、启动:sudo
/etc/init.d/ssh start

查看服务是否正确启动:ps
-e | grep ssh

设置ssh免密码登录

#
su hadoop

$
ssh-keygen -t rsa

$
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@namenode

$
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@slavenode

$
chmod 0600 ~/.ssh/authorized_keys

$
exit

在namenode节点操作

mkdir -p $HOME/.ssh
chmod 700 $HOME/.ssh
ssh-keygen -t rsa -P '' -f $HOME/.ssh/id_rsa
cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys
chmod 644 $HOME/.ssh/authorized_keys
Copy the public key to new slave node in hadoop user $HOME directory
scp $HOME/.ssh/id_rsa.pub hadoop@192.168.1.104:/home/hadoop/

在datanode上操作

cd $HOME
mkdir -p $HOME/.ssh
chmod 700 $HOME/.ssh
cat id_rsa.pub >>$HOME/.ssh/authorized_keys
chmod 644 $HOME/.ssh/authorized_keys 一定要跟下面的权限一样,不过不一样就会每次都要输入密码!!!
chmode 755 /home --->dwxr-xr-x
chmode 755 hadoop --->drwxr-xr-x
chmod 700 .ssh --->drwx------
chmod 664 authorized_keys -rw-rw-r--

4、安装jdk

$su

password

到oracle网站下载64位或者32位的jdk(根据自己的操作系统位数)

mkdir /usr/lib/jvm

tar -zxf jdk...

# mv jdk1.8.0_101 /usr/lib/jvm

# exit

添加

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_101

export PATH=PATH:$JAVA_HOME/bin

5、安装hadoop

mkdir
/home/hadoop

sudo
tar xzf hadoop-2.7.3.tar.gz

mv
hadoop-2.7.3 /home/hadoop

#修改hadoop-2.7.3为hadoop

mv
hadoop-2.7.3 hadoop

chmod
777 /home/hadoop/hadoop

!!!!!hadoop文件配置

在hadoop下面建立dfs文件家

cd
/home/hadoop/hadoop

hadoop$
mkdir dfs

hadoop$
mkdir dfs/name

hadoop$
mkdir dfs/name/data

cd
/home/hadoop/hadoop/etc/hadoop

sudo
gedit core-site.xml

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://namenode:9000</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

</configuration>

sudo
gedit hdfs-site.xml

<configuration>

<property>

<name>dfs.data.dir</name>

<value>file:/home/hadoop/hadoop/dfs/name/data</value>

<final>true</final>

</property>

<property>

<name>dfs.name.dir</name>

<value>file:/home/hadoop/hadoop/dfs/name</value>

<final>true</final>

</property>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

</configuration>

sudo
gedit mapred-site.xml.template

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>Yarn</value>

</property>

</configuration>

<!--

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>hdfs://namenode:9001</value>

</property>

</configuration>

–->

配置yarn文件

sudo
gedit yarn-site.xml

<configuration>

<!--
Site specific YARN configuration properties -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce.shuffle</value>

</property>

<property>

<description>The
address of the applications manager interface in the
RM.</description>

<name>yarn.resourcemanager.address</name>

<value>192.168.1.105:8040</value>

</property>

<property>

<description>The
address of the scheduler interface.</description>

<name>yarn.resourcemanager.scheduler.address</name>

<value>192.168.1.105:8030</value>

</property>

<property>

<description>The
address of the RM web application.</description>

<name>yarn.resourcemanager.webapp.address</name>

<value>192.168.1.105:8088</value>

</property>

<property>

<description>The
address of the resource tracker interface.</description>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>192.168.1.105
:8025</value>

</property>

</configuration>

su
gedit slaves

#输入slave节点

datanode1

sudo
gedit masters

#输入namenode节点

namenode

!!!!!hadoop文件配置

配置.bashrc文件

sudo
gedit ~/.bashrc

#HADOOP
VARIABLES START

export
JAVA_HOME=/usr/lib/jvm/jdk1.8.0_101

export
HADOOP_HOME=/home/hadoop/hadoop

export
PATH=$PATH:$HADOOP_HOME/bin

export
PA TH=$PATH:$HADOOP_HOME/sbin

export
HADOOP_MAPRED_HOME=$HADOOP_HOME

export
HADOOP_COMMON_HOME=$HADOOP_HOME

export
HADOOP_HDFS_HOME=$HADOOP_HOME

export
YARN_HOME=$HADOOP_HOME

export
HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export
HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"

#HADOOP
VARIABLES END

用命令使配置生效:source
~/.bashrc

5.6在hadoop-env.sh配置java环境变量

sudo
gedit /home/hadoop/hadoop/etc/hadoop/hadoop-env.sh

找到JAVA_HOME环境变量,修改如下

export
JAVA_HOME=/usr/lib/jvm/jdk1.8.0_101

7、在slavenode上安装hadoop

#
su hadoop

$
cd /home/hadoop

$
scp -r hadoop slavenode:/home/hadoop

8、启动hadoop

cd
/home/hadoop/hadoop/bin

hadoop
namenode -format
#注意启动一次后再次启动的时候可能会导致集群中datanodes节点的dfs中data文件下version过期导致无法在slave节点上创建datanode,可以修改VERSION中layoutVersion和namenode中的一致来完成同步或者删除VERSION

cd
/home/hadoop/hadoop/sbin

start-all.sh

Hadoop安装指引的更多相关文章

  1. linux hadoop安装

    linux hadoop安装 本文介绍如何在Linux下安装伪分布式的hadoop开发环境. 在一开始想利用cgywin在 windows下在哪, 但是一直卡在ssh的安装上.所以最后换位虚拟机+ub ...

  2. 转载:Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    原文 http://www.powerxing.com/install-hadoop/ 当开始着手实践 Hadoop 时,安装 Hadoop 往往会成为新手的一道门槛.尽管安装其实很简单,书上有写到, ...

  3. hadoop安装遇到的各种异常及解决办法

    hadoop安装遇到的各种异常及解决办法 异常一: 2014-03-13 11:10:23,665 INFO org.apache.hadoop.ipc.Client: Retrying connec ...

  4. hadoop安装实战(mac实操)

    集群环境配置参考(http://blog.csdn.net/zcf1002797280/article/details/49500027) 参考:http://www.cnblogs.com/liul ...

  5. hadoop安装计

    hadoop安装计 大体上按这个做就好了 http://blog.csdn.net/hitwengqi/article/details/8008203 需要修改hadoop-env.sh export ...

  6. [Hadoop入门] - 2 ubuntu安装与配置 hadoop安装与配置

    ubuntu安装(这里我就不一一捉图了,只引用一个网址, 相信大家能力) ubuntu安装参考教程:  http://jingyan.baidu.com/article/14bd256e0ca52eb ...

  7. Hadoop安装(Ubuntu Kylin 14.04)

    安装环境:ubuntu kylin 14.04   haoop-1.2.1   hadoop下载地址:http://apache.mesi.com.ar/hadoop/common/hadoop-1. ...

  8. hadoop安装配置——伪分布模式

    1. 安装 这里以安装hadoop-0.20.2为例 先安装java,参考这个 去着下载hadoop 解压 2. 配置 修改环境变量 vim ~/.bashrc export HADOOP_HOME= ...

  9. Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    摘自: http://www.cnblogs.com/kinglau/p/3796164.html http://www.powerxing.com/install-hadoop/ 当开始着手实践 H ...

随机推荐

  1. 2016HUAS暑假集训题1 H - N皇后问题

    Description 在N*N的方格棋盘放置了N个皇后,使得它们不相互攻击(即任意2个皇后不允许处在同一排,同一列,也不允许处在与棋盘边框成45角的斜线上. 你的任务是,对于给定的N,求出有多少种合 ...

  2. Cocos2d-x 开发 v3.2 建立新项目并添加库文件

    一.添加其它类库     3.0以上的设计耦合性强,项目中模块常以库的形式存在,需常添加链接库.在3.0中经常用到CocoStudio 编辑器的资源数据,所以需要添加CocoStudio 库. 1.1 ...

  3. java中的反射

    1.何为java反射机制: 在运行过程中,对于任意一个类都能够知道这个类的属性和方法:对于任意一个对象都能调用其属性和方法:这种动态获取信息和动态调用方法 就称为java反射 2.获取Class对象的 ...

  4. 20145334 《Java程序设计》第10周学习总结

    20145334 <Java程序设计>第10周学习总结 教材学习内容总结 一.网络编程 •网络编程对于很多的初学者来说,都是很向往的一种编程技能,但是很多的初学者却因为很长一段时间无法进入 ...

  5. 如何正确使用css中vertical-align

    首先明确,vertical-align只对inline-block和inline元素有效. 在说vertical-align之前,需要先说明一下什么是line box. 浏览器中显示的一行会包含多个非 ...

  6. 解决ssh登录后闲置时间过长而断开连接

     ++++++++++++++++++++++++++++ #!/usr/bin/env bash password_5="Uxxx7"host_5="129.x.x.1 ...

  7. 【测试分析】HTSM模型

    ◆版权声明:本文出自胖喵~的博客,转载必须注明出处. 转载请注明出处:http://www.cnblogs.com/by-dream/p/5508428.html 概述 HTSM全称Heuristic ...

  8. angularJs自定义指令.directive==类似自定义标签

    创建自定义的指令 除了 AngularJS 内置的指令外,我们还可以创建自定义指令. 你可以使用 .directive 函数来添加自定义的指令. 要调用自定义指令,HTML 元素上需要添加自定义指令名 ...

  9. Assets和Raw区别

    在建立项目中一般会默认建立assets文件,当然我们还可以在res文件下面建立raw文件夹,这里面都可以存放一些多媒体文件或者文本信息,可以供我们在程序中使用. assets下面的文件不会被编译,通过 ...

  10. Android-Activity使用(1)

    一.添加 activity类  Aty1 继承Activity package activitylc.eoe.cn.l002activieylc; import android.app.Activit ...