注意:hadoop有两种运行模式,安全模式和非安全模式。安装模式是以指定在健壮的,基于身份验证上运行的,本文无需运行在非安全模式下,可以直接使用root用户。

本文用户是基于root用户来运行的

一、网络配置

打开终端输入ifconfig,找到本机ip,192.168.209.139

/etc/hosts存放的是域名与ip的对应关系,

gedit /etc/hosts

192.168.209.139 master
192.168.209.140 slave1
192.168.209.141 slave2
192.168.209.142 slave3

分别修改机器名称:
gedit /etc/hostname 分别修改为master、slave1、slave2、slave3

二、打通机器

各个节点安装ssh

sudo apt-get install openssh-server

启动服务 sudo /etc/init.d/ssh start
查看服务 ps -e|grep ssh

主节点操作:

cd /root/.ssh/

ssh-keygen -t rsa -P "" -P指定端口号
cat id_rsa.pub > ~/.ssh/authorized_keys #把前面文件的内容追加到后面的文件里面,没有后面的文件就创建
scp ~/.ssh/authorized_keys slave1:~/.ssh/authourized_keys #拷贝到子节点
scp ~/.ssh/authorized_keys slave2:~/.ssh/authourized_keys
scp ~/.ssh/authorized_keys slave3:~/.ssh/authourized_keys

ssh master 登录测试无密码

三、安装jdk

官网下载jdk1.7版本

tar -zxvf jdk-7u7-linux-i586.tar.gz

mv jdk1.7.0_07 /usr/local/jdk7

设置环境变量 gedit /etc/profile

#set java envirenment
export JAVA_HOME=/usr/local/jdk7 #解压的路径
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

# set hadoop
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="$HADOOP_OPTS -Djava.library.path=$HADOOP_HOME/lib/native"

#export PATH="$HADOOP_HOME/bin:$HIVE_HOME/bin:$PATH"
export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$PATH

使环境变量生效 source /etc/profile

四、安装,配置hadoop

官网下载的是32位包,主要自己编译成64位,所以最好网上找64位以编译好的包

tar -zxvf hadoop-2.4.0-64bit.tar.gz
mv hadoop-2.4.0 /usr/local/hadoop

配置文件在cd /usr/local/hadoop/etc/hadoop/ 目录下
1、在yarn-env.sh 和hadoop-env.sh文件中加上jdk路径

gedit yarn-env.sh

gedit hadoop-env.sh
export JAVA_HOME=/usr/local/jdk7
2、gedit core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
<final>true</final>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp/hadoop-${user.name}</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
</configuration>
3、gedit hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
</configuration>
4、gedit mapred-site.xml.template
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
<description>Execution framework set to Hadoop YARN.</description>
</property>
</configuration>
5、gedit yarn-site.xml
<configuration>

<!-- Site specific YARN configuration properties -->

<property>
<name>yarn.resourcemanager.address</name>
<value>master:9001</value>
<description>The address of the applications manager interface in the RM.</description>
</property>

<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
<description>The address of the applications manager interface in the RM.</description>
</property>

<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:18030</value>
<description>The address of the scheduler interface,in order for the RM to obtain the resource from scheduler</description>
</property>

<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:18025</value>
<description>The address of the resource tracker interface for the nodeManagers</description>
</property>

<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:18035</value>
<description>The address for admin manager</description>
</property>

<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:18088</value>
<description>The address of the RM web application.</description>
</property>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
5、gedit slaves
在该文件中添加
slave1
slave2
slave3

6、将hadoop文件夹和java 拷贝到另外三台,同时把环境变量里面的配置也一并进行拷贝

7、主节点启动hadoop

[初始化]
cd $HADOOP_HOME/bin
./hadoop namenode -format
启动

cd $HADOOP_HOME
sbin/start-all.sh

停止

sbin/stop-all.sh

jps 查看进程
hadoop dfsadmin -report 查看集群信息

ubuntu14.0 hadoop2.4.0 64位基于jdk1.7搭建的更多相关文章

  1. sublime Text2 2.0.2 build 2221 64位 破解(已测试)

    近终于找到  sublime Text2 升级到 2.0.2 build 2221 64位 的破破解 输入注册码就成了 ----- BEGIN LICENSE ----- Andrew Weber S ...

  2. ubuntu14.04 64位 安装JDK1.7

    ubuntu14.04 64位 安装JDK1.7 1 新建文件夹 youhaidong@youhaidong:~$ sudo mkdir /usr/lib/jvm 2 解压文件 youhaidong@ ...

  3. 【转】64位Ubuntu 16.04搭建嵌入式交叉编译环境arm-linux-gcc过程图解

    64位Ubuntu 16.04搭建嵌入式交叉编译环境arm-linux-gcc过程图解,开发裸机环境之前需要先搭建其开发环境,毕竟工欲善其事必先利其器嘛.  安装步骤 1.准备工具安装目录 下载 ar ...

  4. oralce 10g(10.2.0.1) 冷备份从64位恢复到32位

    环境描述:windows 2003 企业版 64位 oracle版本:oracle 10g 10.2.0.1 64位 冷备恢复到 windows XP oracle 10g 10.2.0.1 32位( ...

  5. H310C,B365,M.2 NVME SSD,USB3.0,安装 WIN7 64 位

    华擎H310CM ITX NVME SSD 上安装WIN7 64位 核心关键点:xHCI USB3.0驱动,nvme驱动,nvme win7补丁. 硬件配置:I5 9400F, 华擎H310CM IT ...

  6. 【甘道夫】Ubuntu14 server + Hadoop2.2.0环境下Sqoop1.99.3部署记录

    第一步.下载.解压.配置环境变量: 官网下载sqoop1.99.3 http://mirrors.cnnic.cn/apache/sqoop/1.99.3/ 将sqoop解压到目标文件夹,我的是 /h ...

  7. 在Eclipse上建立hadoop2.2.0/hadoop2.4.0源代码阅读环境

    1.安装依赖的包: yum install gcc-c++ g++ autoconf automake libtool cmake zlib1g-dev pkg-config libssl-dev 2 ...

  8. 64位win7旗舰版搭建apache+php+mysql开发环境[转]

      我建议把apache.php.mysql都安装在一个文件夹中,比如:web/apache.web/php.web/mysql 1.安装apache2.2.25,请查看win7下安装VC9版本的ap ...

  9. windows 64位下,React-Native环境搭建详解 (Android)

    React-Native环境搭建需要: 1.安装Java JDK 2.安装Android Studio 3.安装node.js 4.安装git 5.安装Python 2.x (注意目前不支持Pytho ...

随机推荐

  1. Vue 进入/离开动画

    1.示例代码 (注:写到vue单文件中了) <template> <div> <button v-on:click="show = !show"> ...

  2. poj1113Wall 求凸包周长 Graham扫描法

    #include<iostream> #include<algorithm> #include<cmath> using namespace std; typede ...

  3. rabbitMQ 基本概念

    RabbitMQ 整体上是一个生产者与消费者模型,主要负责接收.存储和转发消息.可以把消 息传递的过程想象成:当你将一个包裹送到邮局,邮局会暂存并最终将邮件通过邮递员送到收件人的手上, RabbitM ...

  4. CSS 温故而知新 background常用属性

    1.background-repeat 不用说,常用直接no-repeat 2.background-size 常用的分为两个,一个是铺满:cover, 另一个是使图像适应宽高:contain 3.b ...

  5. Atitit.文件搜索工具 attilax 总结

    Atitit.文件搜索工具 attilax 总结 1. 指定目录按照体积大小精确搜索1 1.1. File Seeker 4.5 版本的可以,3.5版本的不行..1 2. 按照文件内容搜索1 2.1. ...

  6. 激活modelsim se 10.4 时运行patch_dll.bat不能生成TXT

    问题描述: 激活modelsim时运行patch_dll.bat总是在DOS界面一闪而过,不能生成LICENSE.TXT 问题解决: 先取消文件 mgls64.dll 的只读属性(这句话在README ...

  7. mysql存在就更新,不存在就新增

    INSERT INTO newest_log_operation(    ACTION, OPERATION, KEY_VALUE, BUS_KEY, CONTENT, USER_ID, VERSIO ...

  8. 盘点20款主流应用FPS,最Skr帧率测试方法都在这里!

    ​​​无论是手机端还是PC端,画面的流畅度一直被用户视为衡量应用视觉体验的重要标准.用户往往通过主观感觉把视觉体验分为两种状态: 流畅视觉:行云流水,一气呵成: 非流畅视觉:“卡顿”.“抖动”.“迟钝 ...

  9. 15:开发Rsync服务启动脚本案例

    [root@m01 ~]# rsn_count="ps -ef|grep 'rsync --d[a]emon'|wc -l" [root@m01 ~]# echo ${rsn_co ...

  10. 第一百九十五节,jQuery EasyUI,Resizable(调整大小)组件

    jQuery EasyUI,Resizable(调整大小)组件 学习要点: 1.加载方式 2.属性列表 3.事件列表 4.方法列表 本节课重点了解 EasyUI 中 Resizeable(调整大小)组 ...