一、安装的需要软件及集群描述

1、软件:

Vmware9.0:虚拟机

Hadoop2.2.0:Apache官网原版稳定版本

JDK1.7.0_07:Oracle官网版本

Ubuntu12.04LTS:长期支持版本

Ganglia:集群性能监测软件

ssh:SSH 为 Secure Shell 的缩写,由 IETF 的网络工作小组(Network Working Group)所制定;SSH 为建立在应用层和传输层基础上的安全协议。SSH 是目前较可靠,专为远程登录会话和其他网络服务提供安全性的协议。利用 SSH 协议可以有效防止远程管理过程中的信息泄露问题。SSH最初是UNIX系统上的一个程序,后来又迅速扩展到其他操作平台。SSH在正确使用时可弥补网络中的漏洞。SSH客户端适用于多种平台。几乎所有U NIX平台—包括HP-UX、Linux、AIX、Solaris、Digital UNIX、Irix,以及其他平台—都可运行SSH。

Vim:编辑器

2、集群描述(集群主要有一个主节点,三个从节点)

master                              主节点,从节点
slave01                     从节点
slave02 从节点
slave03 从节点

二、安装及配置过程

1、JDK的安装(解压到/home/hadoop/sf/jdk1.7.0_07/)

1.解压:sudo tar -zxvf  jdk。

2.在/home/hadoop/.profile文件中配置环境变量,sudo Vim .profile在文件末尾加上

export JAVA_HOME=/home/hadoop/sf/jdk1.7.0_07

export PATH=$JAVA_HOME/bin:$PATH

3.source .profile

4.测试是否安装成功。在终端输入java –version

2、ssh的安装

1.更新软件源:sudo apt-get update

安装ssh:sudo apt-get install ssh

2.配置无密钥登录

a. ssh-keygen (生成密钥)

b.cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

3.将authorized_keys拷贝到其他从节点的/.ssh/的目录下(可以实现无密钥的访问其他节点)

scp -r /home/hadoop/sf/.ssh/authorized_keys hadoop@slave03:~/ssh/

3、修改/etc/hosts文件

该文件主要是将主机名ip地址对应,master节点与所有slave节点都要修改。

 10.10.201.89    master
10.10.201.90 slave01
10.10.201.80 slave02
10.10.201.3 slave03

4、安装master节点中hadoop

1.解压。如:sudo tar -zxvf hadoop2.2.0  解压在/sf/hadoop-2.2.0

2.在hadoop的目录下创建3个文件夹:(sudo mkdir dfs)

注意:这里创建完要注意每个目录到权限,如果是root,则必须修改为本用户权限;修改权限的命令为:sudo chown -R zhao:zhao /dfs

/sf/hadoop-2.2.0/dfs/name,

/sf/hadoop-2.2.0/dfs/data,

/sf/hadoop-2.2.0/dfs/temp

3.修改hadoop中的配置文件(主要在hadoop中的etc/目录下):

  配置文件1(hadoop-env.sh)

只要更改该文件中JAVA_HOME既可以

 # The java implementation to use.
export JAVA_HOME=/home/hadoop/sf/jdk1.7.0_07/

配置文件2(yarn-env.sh)

一定要找个文件中的export JAVA_HOME所在的位置,还是修改JAVA_HOME

 export JAVA_HOME=/home/hadoop/sf/jdk1.7.0_07/

配置文件3(slaves)

主要为了让master节点知道有哪些从节点,这里也将主节点也作为一个从节点使用。

 master
slave01
slave02
slave03

  配置文件4(core-site.xml)

 <configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>   //这里到master是主机名,随着自己主机名进行修改,以下的master作相同操作
</property> <property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/sf/hadoop-2.2.0/dfs/temp/</value>
</property>
</configuration>

  配置文件5(hdfs-site.xml)

 <configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/sf/hadoop-2.2.0/dfs/name/</value>
</property>
<property>
<name>dfs.namenode.data.dir</name>
<value>/home/hadoop/sf/hadoop-2.2.0/dfs/data/</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>

配置文件6 (mapred-site.xml)

注:没有这个文件,要将mapred-site.xml.template文件改成mapred-site.xml

 <configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>

  配置文件7(yarn-site.xml)

 <configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
</configuration>

4.格式化namenode: ./bin/hdfs namenode –format

5.启动hdfs: ./sbin/start-dfs.sh

此时在master上面运行的进程有:namenode secondarynamenode

slave01~slave03上面运行的进程有:datanode

6.启动yarn: ./sbin/start-yarn.sh

此时在master上面运行的进程有:namenode secondarynamenode  resourcemanager

slave01~slave03上面运行的进程有:datanode nodemanager

 5、配置其余从节点

     只要将master节点配置成功的hadoop文件夹传给每个从节点上即可。

命令:scp -r  /home/hadoop/sf/hadoop-2.20.0 ~/sf/

hadoop2.20.0集群安装教程的更多相关文章

  1. Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

    前言 安装Apache Hive前提是要先安装hadoop集群,并且hive只需要在hadoop的namenode节点集群里安装即可,安装前需保证Hadoop已启(动文中用到了hadoop的hdfs命 ...

  2. CentOS下Hadoop-2.2.0集群安装配置

    对于一个刚开始学习Spark的人来说,当然首先需要把环境搭建好,再跑几个例子,目前比较流行的部署是Spark On Yarn,作为新手,我觉得有必要走一遍Hadoop的集群安装配置,而不仅仅停留在本地 ...

  3. hadoop2.2.0集群安装

    位说明. 位).Jdk使用的1.7(1.6也可以).网络配置好,相互可以ping通,java环境安装完毕.   第一部分 Hadoop 2.2 下载 位). 下载地址:http://apache.cl ...

  4. hadoop2.2.0集群安装和配置

    hadoop2.0已经发布了稳定版本了,增加了很多特性,比如HDFS HA.YARN等. 注意:apache提供的hadoop-2.2.0的安装包是在32位操作系统编译的,因为hadoop依赖一些C+ ...

  5. Hadoop-2.6.0 集群的 安装与配置

    1.  配置节点bonnie1 hadoop环境 (1) 下载hadoop- 2.6.0 并解压缩 [root@bonnie1 ~]# wget http://apache.fayea.com/had ...

  6. Ubuntu12.04-x64编译Hadoop2.2.0和安装Hadoop2.2.0集群

      本文Blog地址:http://www.cnblogs.com/fesh/p/3766656.html   本文对Hadoop-2.2.0源码进行重新编译(64位操作系统下不重新编译会有版本问题) ...

  7. 在Hadoop-2.2.0集群上安装 Hive-0.13.1 with MySQL

    fesh个人实践,欢迎经验交流!本文Blog地址:http://www.cnblogs.com/fesh/p/3872872.html 软件环境 操作系统:Ubuntu14.04 JDK版本:jdk1 ...

  8. hadoop-2.6.0集群开发环境配置

    hadoop-2.6.0集群开发环境配置 一.环境说明 1.1安装环境说明 本例中,操作系统为CentOS 6.6, JDK版本号为JDK 1.7,Hadoop版本号为Apache Hadoop 2. ...

  9. 分布式Hbase-0.98.4在Hadoop-2.2.0集群上的部署

    fesh个人实践,欢迎经验交流!本文Blog地址:http://www.cnblogs.com/fesh/p/3898991.html Hbase 是Apache Hadoop的数据库,能够对大数据提 ...

随机推荐

  1. 无废话版本-Asp.net MVC4.0 Rasor的基本用法

    最近工作有点忙,好久没写东西了!废话不多说了,进入主题! 1.在页面中输出单一变量时候,只要在C#语句之前加上@符号即可,For example: <p>Now Time:@DateTim ...

  2. 深入浅出ES6(四):模板字符串

    作者 Jason Orendorff  github主页  https://github.com/jorendorff 反撇号(`)基础知识 ES6引入了一种新型的字符串字面量语法,我们称之为模板字符 ...

  3. 2013 ACM-ICPC长沙赛区全国邀请赛——A So Easy!

    这题在比赛的时候不知道怎么做,后来看了别人的解题报告,才知道公式sn=(a+sqrt(b))^n+(a-sqrt(b))^n; 具体推导 #include<iostream> #inclu ...

  4. Floodlight 防火墙是如何起作用的

    前言 用mininet + floodlight搭建好环境之后,运行flooglight,然后在mininet中建立网络拓扑,建好之后,pingall,所有host之间可以ping通. 然后向控制器f ...

  5. P1024 外星人的密码数字

    P1024 外星人的密码数字 时间: 1000ms / 空间: 131072KiB / Java类名: Main 描述     XXXX年突然有外星人造访,但大家语言不通,不过科学家们经过研究发现外星 ...

  6. 李洪强iOS开发之OC[017]函数和方法的区别

    // //  main.m //  15 - 函数和对象的方法的区别 // //  Created by vic fan on 16/7/12. //  Copyright © 2016年 李洪强. ...

  7. 【PHP高效搜索专题(2)】sphinx&coreseek在PHP程序中的应用实例

    PHP可以通过三种途径来调用sphinx 通过Sphinx官方提供的API接口(接口有Python,Java,Php三种版本) 通过安装SphinxSE,然后创建一个中介sphinxSE类型的表,再通 ...

  8. spring mvc 常用注解

    1.@requestMapping注解,绑定指定的url,requestmapping注解的属性值有value和method. requestmaping可以作用在类上或者方法上 如:@Request ...

  9. 转:socket编程在windows和linux下的区别

    如无其它说明,本文所指Linux均表示2.6内核Linux,GCC编译器,Windows均表示Windows XP系统,Visual Studio 2005 sp1编译环境. 下面大概分几个方面进行罗 ...

  10. 语言基础:C#输入输出与数据类型及其转换

    今天学习了C#的定义及特点,Visual Studio.Net的集成开发环境和C#语言基础. C#语言基础资料——输入输出与数据类型及其转换 函数的四要素:名称,输入,输出,加工 输出 Console ...