1.1配置

1.1.1修改hosts

vi /etc/hosts 

192.168.220.64  cluster4 

192.168.220.63 cluster3

1.2安装jdk

rpm安装

rpm -ivh jdk-7u17-linux-x64.rpm 

环境变量

vi /etc/profile
#set java environment
JAVA_HOME=/usr/java/jdk1..0_17
CLASSPATH=.:$JAVA_HOME/lib.tools.jar
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME CLASSPATH PATH

环境变量生效

source /etc/profile 

链接

ln -s -f /usr/java/jdk1..0_17/jre/bin/java
ln -s -f /usr/java/jdk1..0_17/bin/javac

测试

java -version

java -version
java version "1.7.0_17"
Java(TM) SE Runtime Environment (build 1.7.0_17-b02)
Java HotSpot(TM) -Bit Server VM (build 23.7-b01, mixed mode)

安装jdk报错,但是后续貌似不影响,暂时跳过。

[root@cluster3 java]# rpm -ivh jdk-7u17-linux-x64.rpm
Preparing... ########################################### [%]
:jdk ########################################### [%]
Unpacking JAR files...
rt.jar...
Error: Could not open input file: /usr/java/jdk1..0_17/jre/lib/rt.pack
jsse.jar...
Error: Could not open input file: /usr/java/jdk1..0_17/jre/lib/jsse.pack
charsets.jar...
Error: Could not open input file: /usr/java/jdk1..0_17/jre/lib/charsets.pack
tools.jar...
Error: Could not open input file: /usr/java/jdk1..0_17/lib/tools.pack
localedata.jar...
Error: Could not open input file: /usr/java/jdk1..0_17/jre/lib/ext/localedata.pack

1.3配置ssh公钥密钥自动登录

[root@cluster3 ~]# cd .ssh
[root@cluster3 .ssh]# ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
::2a:0f:ce::a6:9d:d7:ed:0b:4b::6b:3d: root@cluster3
[root@cluster3 .ssh]# cat id_rsa.pub >> authorized_keys
[root@cluster3 .ssh]# scp authorized_keys root@192.168.220.64:/root/.ssh/
root@192.168.220.64's password:
authorized_keys % .4KB/s :
[root@cluster3 .ssh]# ssh root@cluster3
Last login: Thu Oct :: from localhost.localdomain
[root@cluster3 ~]# ssh root@cluster4
Last login: Tue Oct :: from 192.168.220.1

2安装hadoop

解压hadoop

tar -zxf hadoop-2.5..tar.gz  

2.1修改core-site.xml

vi core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://cluster3:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/hadoop-2.5./tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>io.file.buffer.size</name>
<value></value>
</property>
</configuration>

2.2修改hdfs-site.xml

vi hdfs-site.xml
<configuration>
<property>
<name>dfs.nameservices</name>
<value>hadoop-cluster3</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>cluster3:</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///usr/local/hadoop/hadoop-2.5.1/dfs/name</value>
</property>
<property>
<name>dfs.namenode.data.dir</name>
<value>file:///usr/local/hadoop/hadoop-2.5.1/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value></value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>

2.3修改mapred-site.xml

cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobtracker.http.address</name>
<value>cluster3:</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>cluster3:</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>cluster3:</value>
</property>
</configuration>

2.4修改yarn-site.xml

vi yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>cluster3:</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>cluster3:</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>cluster3:</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>cluster3:</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>cluster3:</value>
</property>
</configuration>

2.5修改slaves

vi slaves
cluster4

3.1修改JAVA_HOME

分别在文件hadoop-env.sh和yarn-env.sh中添加JAVA_HOME配置

vi hadoop-env.sh

export JAVA_HOME=/usr/java/jdk1..0_17

vi yarn-env.sh

export JAVA_HOME=/usr/java/jdk1..0_17

3.2hadoop环境变量

登录Master,配置Hadoop环境变量。

vi /etc/profile

export HADOOP_HOME=/usr/local/hadoop/hadoop-2.5.
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH source /etc/profile

3.3格式化文件系统

hdfs namenode -format  

3.4启动、停止服务

[root@cluster3 sbin]# start-dfs.sh

[root@cluster3 sbin]# start-yarn.sh

[root@cluster3 sbin]# stop-dfs.sh

[root@cluster3 sbin]# stop-yarn.sh

4验证

[root@cluster3 hadoop]# jps
Jps
ResourceManager
NameNode [root@cluster4 hadoop]# jps
NodeManager
DataNode
Jps

查看日志

[root@cluster3 logs]# tail -n200 /usr/local/hadoop/hadoop-2.5./logs/yarn-root-resourcemanager-cluster3.log 

4.2浏览器访问:

http://192.168.220.63:50070

http://192.168.220.63:8088

hadoop2.5.1搭建(一)的更多相关文章

  1. 原生态hadoop2.6平台搭建

     hadoop2.6平台搭建 一.条件准备 软件条件: Ubuntu14.04 64位操作系统,jdk1.7 64位,Hadoop 2.6.0 硬件条件: 1台主节点机器,配置:cpu 8个,内存32 ...

  2. Hadoop学习笔记—22.Hadoop2.x环境搭建与配置

    自从2015年花了2个多月时间把Hadoop1.x的学习教程学习了一遍,对Hadoop这个神奇的小象有了一个初步的了解,还对每次学习的内容进行了总结,也形成了我的一个博文系列<Hadoop学习笔 ...

  3. Hadoop2.5.0 搭建实录

    目录: 第一步:准备相关材料 第二步:虚拟机环境搭建 第三步:用户信息 第四步 安装.配置Java环境 第五步 Zookeeper安装配置 第六步 Hadoop安装.配置 第七步:HBase安装部署 ...

  4. 基于hadoop2.6.0搭建5个节点的分布式集群

    1.前言 我们使用hadoop2.6.0版本配置Hadoop集群,同时配置NameNode+HA.ResourceManager+HA,并使用zookeeper来管理Hadoop集群 2.规划 1.主 ...

  5. Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十)安装hadoop2.9.0搭建HA

    如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...

  6. 【安装】Hadoop2.8.0搭建过程整理版

    Hadoop搭建过程 前期环境搭建主要分为软件的安装与配置文件的配置,集成的东西越多,配置项也就越复杂. Hadoop集成了一个动物园,所以配置项也比较多,且每个版本之间会有少许差异. 安装的方式有很 ...

  7. hadoop2.6.4 搭建伪分布式

    安装jdk1.7 http://www.cnblogs.com/zhangXingSheng/p/6228432.html  ------------------------------------- ...

  8. hadoop2.6.4 搭建单机模式

    注(要先安装jdk,最好jdk版本>=1.7) 安装jdk  http://www.cnblogs.com/zhangXingSheng/p/6228432.html     给普通用户添加su ...

  9. hadoop2.5.1搭建(二)

    第一篇主要是整体的步骤,其实中间遇到很多问题,第二篇将遇到的问题全部列举下来: 1.1包不能加载警告 WARN util.NativeCodeLoader: Unable to load native ...

随机推荐

  1. 详细说明svn分支与合并---命令行

    一,svn分支与合并有什么用? 作程序的,对svn在熟悉不过了,但对svn分支熟悉的,我想并不多.因为一般情况下,是用不着svn分支的,其实也没有那个必要.下面我例举几个需要用到svn分支的情况: 1 ...

  2. 重新定位svn地址的方法(windows和linux),svn switch(sw)的帮助信息

    今天公司的路由器出现问题,服务器的IP地址也跟着变了,但是原来的svn已经设置好了,现在需要更换地址 查询原地址的方法: root@jack-desktop:codes# svn info 路径: . ...

  3. 在Huawei USG2100 上配置通过Huawei VPN客户端的接入

    USG2100 设置 一.本地策略 中允许 Untrust 对 L2TP 的访问: 二.勾选 VPN-->L2TP 启用: 三.设置参数: 1.组类型选择LNS,本端隧道名称LNS,对端隧道名称 ...

  4. unity客户端与c++服务器之间的简单通讯_1

    // 服务器 # pragma once using namespace std; # include <iostream> # include <string> # incl ...

  5. OAF_EO系列5 - Update详解和实现(案例)

    2014-06-14 Created By BaoXinjian

  6. BestCoder Round #84 Bellovin

    Bellovin 题意: 给个中文链接:戳戳戳 题解: 这个题其实就是让你求每一位的最长公共子序列,之后输出就好了,求这个有2个算法,一个是n方,另一个nlogn,所以显然是nlogn的算法,其实这就 ...

  7. HTML5表单与PHP交互

    <!DOCTYPE html> <html> <head lang="en"> <meta charset="UTF-8&quo ...

  8. 【转】select和epoll模型的差异

    http://www.cppblog.com/converse/archive/2008/10/12/63836.html epoll为什么这么快 epoll是多路复用IO(I/O Multiplex ...

  9. checkbox 选中个数

    背景: 1 Choose1 全选checkbox ,选中此checkbox,子列表的checkbox全部为选中状态. 2 在子列表中如果去掉一个checkbox则Choose1 的全选状态也改为不选中 ...

  10. photoshop CS 调整选择区域的大小

    网上看到说:矩形选框不能直接调整大小,如果你不想重新画一个可以利用转换路径,然后再调整.这是不对的,矩形选框是可以调整大小的,使用"变换选区"即可.   对应步骤截图如下: 1.画 ...