Hadoop分布式集群搭建
layout: "post"
title: "Hadoop分布式集群搭建"
date: "2017-08-17 10:23"
catalog: true
---
基础环境
## 环境准备
1,软件版本
(1)在VMWare上面跑了三台虚拟机:CentOS7,系统内核3.10
(2)三台虚拟机的IP:192.168.102.3,192.168.102.4,192.168.102.5。三台机器分别作为hadoop的master,slaveA,slaveB。
(3)jdk1.8。
(4)hadoop2.7.3.download:http://apache.claz.org/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz
2,hostname设置
设置每台主机的hostname,这个文件位置随着系统的不同而不同,下面是CentOS7的hostname文件位置。
#vim /etc/hostname
文件中添加
Master
相应的其它两台机器设置此文件中的内容为SlaveA,SlaveB,重启有效,在下一步重启。
3, hosts配置(ip-hostname映射)
vim /etc/hosts
192.168.102.3 Master
192.168.102.4 SlaveA
192.168.102.5 SlaveB
三台机器都需要做相同的设置,然后重启三台机器,让文件修改生效。
## SSH免密登录
一,关闭防火墙和SELINUX
配置ssh免密登录首先需要关闭防火墙和SELINUX。
1,我这里在本机CentOS7中进行了永久的防火墙关闭
关闭防火墙(其它的发行版关闭防火墙的命令是不同的)
//永久关闭防火墙
#chkconfig firewalld off
//查看防火墙状态
#systemctl status firewalld
关闭SELINUX
vim /etc/SELINUX/config
//注释掉所有,然后添加下面一行
SELINUX=disabled
以上两个步骤在三台机器中都要进行配置和设置。
二,配置ssh的免密登录
#cd ~/.ssh
#ssh-keygen -t rsa
//生成密钥的过程连续输入回车即可。
上述命令完成后~/.ssh目录中会多出id_rsa和id_rsa.pub文件。
1,配置master可以免密登录本机master
//将id_rsa.pub的文件内容追加到文件authorized_keys中
#cd ~/.ssh
#cat id_rsa.pub>>authorized_keys
这个时候使用以下命令登录主机master应该是不用输入密码可以直接登录的。
ssh master
2,配置master可以免密登录slaveA
//将master的id_rsa.pub拷贝到slaveA
#scp ~/.ssh/id_rsa.pub root@slaveA:/root/
//登录到slaveA,将拷贝过来的id_rsa.pub内容追加到~/.ssh/authorized_keys
#cd ~
#cat id_rsa.pub>>.ssh/authorized_keys
这个回到主机master进行登录主机slavaA是不用输入密码的。
ssh slaveA
3,配置master可以免密登录slaveB
这个过程和第二步中免密登录slaveA是同样的操作。
# Hadoop集群搭建
master环境搭建
1,下载hadoop2.7.3,然后进行解压
2,将hadoop系列命令加入PATH路径
#vim /etc/profile
//HADOOP_HOME变量的值换成自己的路径
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
3,配置core-site.xml
#vim $HADOOP_HOME/etc/hadoop/core-site.xml
//添加如下内容
<configuration>
<!--
指定hadoop临时目录,否则默认是在/tmp下面,这个目录每次系
统重启后会删除,所以每次启动hadoop都要执行namenode格式化。
这里的目录需要自己创建。
-->
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary
directories.</description>
</property>
<!--设定namenode的ip/host和port,这里host换成你自己的
hostname
-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
4,配置hdfs-site.xml
#vim $HADOOP_HOME/etc/hadoop/hdfs-site.xml
//添加如下内容
<configuration>
//设定数据的复制份数,因为我这里有两台slave,所以设置为2
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
//设置namenode节点的数据存储目录,这个目录需要自己创建
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/hdfs/name</value>
</property>
//设置datanode节点的数据存储目录,这个目录需要自己创建
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
</property>
</configuration>
5,配置mapred-site.xml
#cd $HADOOP_HOME/etc/hadoop
#cp mapred-site.xml.default mapred-site.xml
#vim mapred-site.xml
//添加以下内容
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>http://master:9001</value>
</property>
</configuration>
6,配置yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
//指定resourceManager节点
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
</configuration>
7,配置slavas文件
#cd $HADOOP_HOME/etc/hadoop
#vim slaves
//添加两台slave
slaveA
slaveB
slaves环境搭建
这里配置slave的环境将master中配置好的hadoop目录中多有文件复制过来即可,包括复制hadoop目录和自己创建的数据目录,这里使用scp命令进行远程复制。
1,复制hadoop目录
#scp $HADOOP_HOME root@slaveA:$HADOOP_HOME/..
#scp $HADOOP_HOME root@slaveB:$HADOOP_HOME/..
2,复制data目录
同样使用scp命令将master中创建的data目录和tmp目录复制到两个slave中。
至此hadoop集群搭建完成,下面进行测试。
启动Hadoop
1,第一次启动需要进行格式化。
#hdfs namenode -format
2,启动hadoop集群,下面命令在master中进行
#start-all.sh
使用jsp命令查看在各个机器中的进程,如果显示以下进程则说明配置正确。
#jsp
master中进程
NameNode
SecondaryNameNode
ResourceManager
slave中进程
DataNode
NodeManager
Hadoop分布式集群搭建的更多相关文章
- Hadoop分布式集群搭建hadoop2.6+Ubuntu16.04
前段时间搭建Hadoop分布式集群,踩了不少坑,网上很多资料都写得不够详细,对于新手来说搭建起来会遇到很多问题.以下是自己根据搭建Hadoop分布式集群的经验希望给新手一些帮助.当然,建议先把HDFS ...
- hadoop分布式集群搭建(2.9.1)
1.环境 操作系统:ubuntu16 jdk:1.8 hadoop:2.9.1 机器:3台,master:192.168.199.88,node1:192.168.199.89,node2:192.1 ...
- Hadoop分布式集群搭建_1
Hadoop是一个开源的分布式系统框架 一.集群准备 1. 三台虚拟机,操作系统Centos7,三台主机名分别为k1,k2,k3,NAT模式 2.节点分布 k1: NameNode DataNode ...
- hadoop分布式集群搭建前期准备(centos7)
那玩大数据,想做个大数据的从业者,必须了解在生产环境下搭建集群哇?由于hadoop是apache上的开源项目,所以版本有些混乱,听说都在用Cloudera的cdh5来弄?后续研究这个吧,就算这样搭建不 ...
- [过程记录]Centos7 下 Hadoop分布式集群搭建
过程如下: 配置hosts vim /etc/hosts 格式: ip hostname ip hostname 设置免密登陆 首先:每台主机使用ssh命令连接其余主机 ssh 用户名@主机名 提示是 ...
- Centos 7下Hadoop分布式集群搭建
一.关闭防火墙(直接用root用户) #关闭防火墙 sudo systemctl stop firewalld.service #关闭开机启动 sudo systemctl disable firew ...
- 使用Docker在本地搭建Hadoop分布式集群
学习Hadoop集群环境搭建是Hadoop入门必经之路.搭建分布式集群通常有两个办法: 要么找多台机器来部署(常常找不到机器) 或者在本地开多个虚拟机(开销很大,对宿主机器性能要求高,光是安装多个虚拟 ...
- 分布式计算(一)Ubuntu搭建Hadoop分布式集群
最近准备接触分布式计算,学习分布式计算的技术栈和架构知识.目前的分布式计算方式大致分为两种:离线计算和实时计算.在大数据全家桶中,离线计算的优秀工具当属Hadoop和Spark,而实时计算的杰出代表非 ...
- 大数据系列之Hadoop分布式集群部署
本节目的:搭建Hadoop分布式集群环境 环境准备 LZ用OS X系统 ,安装两台Linux虚拟机,Linux系统用的是CentOS6.5:Master Ip:10.211.55.3 ,Slave ...
随机推荐
- 参数错误。 (异常来自 HRESULT:0x80070057 (E_INVALIDARG))
异常来自 HRESULT:0x80070057 (E_INVALIDARG)未能加载程序集.......几次删除引用然后重新引用程序集还是报错 奔溃中....网上搜索还真有解决办法:解决方法 是 删除 ...
- 学习JavaScript时的三部分
JavaScript = ECMAScript + DOM + BOM 其中ECMAScript表示的是基本语法,包括我们实现JS的基本语法,如变量的声明.基本的语句(if.for.switch等) ...
- C++第二篇--访问控制
C++第二篇--访问控制 1. 引入 上一篇博文中从结构体引到了类,类当中不仅有数据成员还有一些函数,这些函数被称为成员函数.今天介绍新的内容,类当中的访问控制. 2. 访问控制 当你不添加任何声明, ...
- PHP+NGINX
1. 下载php编译包/nginx编译包(建议先装nginx再装php, php编译包我用的是5.5.35) 2. 创建好安装目录(我的编译包放在/home下) mkdir -p /usr/local ...
- 以Random Forests和AdaBoost为例介绍下bagging和boosting方法
我们学过决策树.朴素贝叶斯.SVM.K近邻等分类器算法,他们各有优缺点:自然的,我们可以将这些分类器组合起来成为一个性能更好的分类器,这种组合结果被称为 集成方法 (ensemble method)或 ...
- FTP publisher plugin插件
说明:这个插件可以将构建的产物(例如:Jar)发布到FTP中去. 官方说明:FTP publisher plugin 安装步骤: 系统管理→管理插件→可选插件→Artifact Uploaders→F ...
- hbase集群导入csv文件
小数据文件导入: 样例 hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator="," ...
- (转)Spring中ThreadLocal的认识
我们知道Spring通过各种DAO模板类降低了开发者使用各种数据持久技术的难度.这些模板类都是线程安全的,也就是说,多个DAO可以复用同一个模板实例而不会发生冲突.我们使用模板类访问底层数据,根据持久 ...
- HTML5 开发APP
近期在做app,现在项目进行了一段时间,我打算把自己的经验写出来,给自己总结一下也给会用小伙伴看一下.本人前端一枚.我们所以能选的技术就是CSS,HTML,JS了,经过准备我决定用HBuilder 准 ...
- Uva 679 Dropping Ballls 二叉树的编号
这个程序常规处理起来数据量很大,I可以高达2^D-1 /* ....... */ 里面的代码块据此避免了开太大的数组 做太多的循环 #include<cstdio> #include< ...