Uubntu14.04下 Hadoop集群环境搭建
1机器信息
master192.168.3.10 hadoop/ hadoop
slave1192.168.3.11 hadoop/ hadoop
slave2192.168.3.12 hadoop/ hadoop
(1)创建用户
#sudo adduser hadoop
(2)增加root权限
# vim /etc/sudoers
hadoop ALL=(ALL) ALL
(3)修改以上三台主机的/etc/hosts配置信息(内容一样)
192.168.3.10 hd-master
192.168.3.11 hd-slave1
192.168.3.12 hd-slave2
(4)分别修改/etc/hostname配置文件
2设置master到slave节点的SSH无密码登陆
Ubuntu已经默认安装了SSH
查看是否运行:ps -ef | grep sshd
(1)首先生成hd-master公钥
hadoop@hd-master:~$ ssh localhost
hadoop@hd-master:~/.ssh$ ssh-keygen -t rsa
hadoop@hd-master:~/.ssh$ cat id_rsa.pub >> authorized_keys
(2)将hd-master公钥保存到hd-slave1节点
hadoop@hd-master:~/.ssh$ scp id_rsa.pub hadoop@hd-slave1:/home/hadoop/
(3)在 hd-slave1节点 上将ssh公匙保存到相应位置
hadoop@hd-slave1:~$ cat id_rsa.pub >> ~/.ssh/authorized_keys
(4)同样将hd-master公钥保存到hd-slave2节点,并在hd-slave2节点 上将ssh公匙保存到相应位置
hadoop@hd-master:~/.ssh$ scp id_rsa.pub hadoop@hd-slave2:/home/hadoop/
hadoop@hd-slave2:~$ cat id_rsa.pub >> ~/.ssh/authorized_keys
(5)最后就可以在hd-master节点上就可以无密码SSH登录到hd-slave1、hd-slave2
hadoop@hd-master:~/.ssh$ ssh hd-slave1
hadoop@hd-master:~/.ssh$ ssh hd-slave2
3安装JDK
hadoop@hd-master:~$ java -version
java version "1.8.0_91"
hadoop@hd-slave1:~$ java -version
java version "1.8.0_91"
hadoop@hd-slave2:~$ java -version
java version "1.7.0_40"
4关闭防火墙
查看防护墙状态是否为“不活动”
hadoop@hd-master:~$ sudo ufw status
Status: inactive
5安装hadoop-2.7.3.tar.gz
(1)解压
hadoop@hd-master:~$ tar -zxvf hadoop-2.7.3.tar.gz
(2)在hd-master节点创建以下目录,并属于同一用户及用户组
hadoop@hd-master:~$ mkdir -p ~/dfs/name && mkdir ~/dfs/data && mkdir ~/tmp
(3)在hd-master节点修改配置文件
A: hadoop-env.sh
export JAVA_HOME=${JAVA_HOME}
B: yarn-env.sh
export JAVA_HOME=${JAVA_HOME}
C: slaves保存所有slave节点
hd-slave1
hd-slave2
D: core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://hd-master:8010</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>*</value>
</property>
E: hdfs-site.xml
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hd-master:9001</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
F: mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>hd-master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hd-master:19888</value>
</property>
G: yarn-site.xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>hd-master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>hd-master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>hd-master:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>hd-master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>hd-master:8088</value>
</property>
(4)将hd-master节点中的hadoop-2.7.3/复制到hd-slave1与hd-slave2节点。
hadoop@hd-master:~$ scp -r hadoop-2.7.3 hadoop@hd-slave1:/home/hadoop/
hadoop@hd-master:~$ scp -r hadoop-2.7.3 hadoop@hd-slave2:/home/hadoop/
(5)配置环境变量
hadoop@hd-master:~$ cat /etc/environment
PATH="/home/hadoop/hadoop-2.7.3/bin:/home/hadoop/hadoop-2.7.3/sbin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games"
(6)格式化namenode节点
hadoop@hd-master:~$ hdfs namenode -format
(7)启动hdfs
hadoop@hd-master:~$ start-dfs.sh
Starting namenodes on [hd-master]
hd-master: namenode running as process 7177. Stop it first.
hd-slave1: datanode running as process 2958. Stop it first.
hd-slave2: datanode running as process 10759. Stop it first.
Starting secondary namenodes [hd-master]
hd-master: starting secondarynamenode, logging to /home/hadoop/hadoop-2.7.3/logs/hadoop-hadoop-secondarynamenode-hd-master.out
(8)启动yarn
hadoop@hd-master:~$ start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /home/hadoop/hadoop-2.7.3/logs/yarn-hadoop-resourcemanager-hd-master.out
hd-slave1: starting nodemanager, logging to /home/hadoop/hadoop-2.7.3/logs/yarn-hadoop-nodemanager-hd-slave1.out
hd-slave2: starting nodemanager, logging to /home/hadoop/hadoop-2.7.3/logs/yarn-hadoop-nodemanager-hd-slave2.out
hadoop@hd-master:~$
(9)查看进程
hadoop@hd-master:~$ jps
8324 ResourceManager
7177 NameNode
8667 Jps
8173 SecondaryNameNode
hadoop@hd-slave1:~$ jps
3335 NodeManager
3452 Jps
2958 DataNode
hadoop@hd-slave2:~$ jps
10759 DataNode
13192 Jps
12529 NodeManager
(10)查看集群信息
http://192.168.3.10:8088/cluster
1机器信息
master |
192.168.3.10 hadoop/ hadoop |
slave1 |
192.168.3.11 hadoop/ hadoop |
slave2 |
192.168.3.12 hadoop/ hadoop |
Uubntu14.04下 Hadoop集群环境搭建的更多相关文章
- hadoop集群环境搭建之zookeeper集群的安装部署
关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...
- hadoop集群环境搭建之安装配置hadoop集群
在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/ (如果没有这个目录 ...
- hadoop集群环境搭建准备工作
一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...
- Linux环境下HDFS集群环境搭建关键步骤
Linux环境下HDFS集群环境搭建关键步骤记录. 介质版本:hadoop-2.7.3.tar.gz 节点数量:3节点. 一.下载安装介质 官网下载地址:http://hadoop.apache.or ...
- Hadoop集群环境搭建步骤说明
Hadoop集群环境搭建是很多学习hadoop学习者或者是使用者都必然要面对的一个问题,网上关于hadoop集群环境搭建的博文教程也蛮多的.对于玩hadoop的高手来说肯定没有什么问题,甚至可以说事“ ...
- Linux环境下SolrCloud集群环境搭建关键步骤
Linux环境下SolrCloud集群环境搭建关键步骤. 前提条件:已经完成ZooKeeper集群环境搭建. 一.下载介质 官网下载地址:http://www.apache.org/dyn/close ...
- Linux环境下ZooKeeper集群环境搭建关键步骤
ZooKeeper版本:zookeeper-3.4.9 ZooKeeper节点:3个节点 以下为Linux环境下ZooKeeper集群环境搭建关键步骤: 前提条件:已完成在Linux环境中安装JDK并 ...
- 大数据 -- Hadoop集群环境搭建
首先我们来认识一下HDFS, HDFS(Hadoop Distributed File System )Hadoop分布式文件系统.它其实是将一个大文件分成若干块保存在不同服务器的多个节点中.通过联网 ...
- 简单Hadoop集群环境搭建
最近大数据课程需要我们熟悉分布式环境,每组分配了四台服务器,正好熟悉一下hadoop相关的操作. 注:以下带有(master)字样为只需在master机器进行,(ALL)则表示需要在所有master和 ...
随机推荐
- Oracle连接步骤
JDBC实现数据所有的操作: 数据库连接需要的步骤 1.数据库的驱动程序:oracle.jdbc.driver.OracleDriver; 2.连接地址:jdbc:oracle:thin:@主机地址: ...
- SecureCRT 如何改变对话框--每行输入字符数的多少
通过设置Logical columns的大小,选中Retain size an font来改变每行输入字符数的多少 1.设置Session Options–>Terminal–>Emula ...
- dwr.jar简介
DWR(Direct Web Remotiong)是一个用于改善web页面与Java类交互的远程服务器端Ajax开源框架, 可以帮助开发人员开发包含AJAX技术的网站.它可以允许在浏览器里的代码使用运 ...
- 【Go入门教程4】变量(var),常量(const),内置基础类型(Boolean、数值 byte,int,rune、字符串、错误类型),分组,iota枚举,array(数值),slice(切片),map(字典),make/new操作,零值
这小节我们将要介绍如何定义变量.常量.Go 内置类型以及 Go 程序设计中的一些技巧. 定义变量 Go 语言里面定义变量有多种方式. 使用 var 关键字是 Go 最基本的定义变量方式,与 C 语言不 ...
- .NET泛型04,使用Lazy<T>实现延迟加载
对于一些"大对象"的创建,我们常常希望延迟加载,即在需要的时候再创建对象实例.现在Lazy<T>很好地支持了这一特点.主要包括: 没有Lazy<T>之前 L ...
- MVC自定义编辑视图,DateTime类型属性显示jQuery ui的datapicker
实现的效果为:在编辑视图中,对DateTime类型的属性,显示jQuery UI的datepicker.效果如下: Student.cs public class Student { ...
- ExtJs动态生成复选框
var old_value = Ext.get("fgzr_select").getValue() if(old_value == ""){ document. ...
- 【spring boot】【log4jdbc】使用log4jdbc打印mybatis的sql和Jpa的sql语句运行情况
在spring boot 中使用mybatis 想看到sql语句的运行情况. 虽然按照 之前说的配置了 logging.level.你的mapper包位置 = debug 但是依旧没有起作用. 所以采 ...
- iOS News Reader开源项目
项目介绍 NewsReader项目是一个新闻阅读类开源项目,支持iPhone和iPad. 目前基于该项目并且已发布到App Store的产品有: VOA慢速英语和每天6分钟英语等 项目源码地址:htt ...
- PHP 7.0 5.6 下安裝 phpLDAPadmin 发生错误的修正方法
在稍具規模的網路環境中, 網管時常選用 LDAP 來進行帳號的統整管理, 一方面提供管理便利度, 另一方面使用者也不必因為不同系統而記憶不同帳號, phpLDAPadmin 是一套常見的 LDAP 管 ...