假设我们有三台服务器,他们的角色我们做如下划分:

10.96.21.120 master

10.96.21.119 slave1

10.96.21.121 slave2

接下来我们按照这个配置来部署hadoop集群。

1:安装jdk

下载解压。

vi /etc/profile

JAVA_HOME=/usr/java/jdk1.6.0_29

CLASS_PATH=$JAVA_HOME/lib:JAVA_HOME/jre/lib:JAVA_HOME/lib/tools.jar:$CLASS_PATH

PATH=$JAVA_HOME/bin:$PATH

if [ -z "$INPUTRC" -a ! -f "$HOME/.inputrc" ]; then
INPUTRC=/etc/inputrc
fi export PATH USER LOGNAME MAIL HOSTNAME HISTSIZE INPUTRC
export CLASS_PATH JAVA_HOME

判断是否安装成功。

java -version

javac

2:安装ssh

命令

yum -y install openssh-server openssh-clients

开启sshd服务

chkconfig sshd on
service sshd start

开启端口

/sbin/iptable -A INPUT -m state --state NEW -m tcp -p tcp --dport 22 -j ACCEPT
service iptables save

当然你也可以使22端口只接受某个ip的连接

/sbin/iptables -A INPUT -s 192.168.1.0/24 -m state --state NEW -p tcp --dport 22 -j ACCEPT
service iptables save

配置文件在: /etc/ssh/sshd config

英文地址:http://www.cyberciti.biz/faq/how-to-installing-and-using-ssh-client-server-in-linux/

3:设置host(三台机器都操作)

vi /etc/hosts
10.96.21.120    master
10.96.21.121 slave1
10.96.21.119 slave2

4:创建hadoop账户,并设置本机无密码登陆(三台机器都操作)

创建用户

useradd hadoop

设置密码为空

passwd -d hadoop

切换账户

su - hadoop

生成公私密钥

ssh-keygen -t rsa

到公钥所在的文件夹

cd ~
cd .ssh

追加公钥到信任区域

如果有authorized_keys文件则
cat id_rsa.pub>> authorized_keys
否则
cp id_rsa.pub authorized_keys

测试本机无密码登陆

ssh -p 22 localhost

5:设置master到slave的无密码登陆

到hadoop用户的ssh文件夹(master操作)

su - hadoop
cd ~
cd .ssh

复制公钥到slave1,slave2(master操作)

scp -P 60022 id_rsa.pub root@10.96.21.121:/home/hadoop/.ssh/10.96.21.120
scp -P 60022 id_rsa.pub root@10.96.21.119:/home/hadoop/.ssh/10.96.21.120

添加master的公钥到的slave1,slave2信任区域(slave1,slave2上操作)

su - hadoop
cd ~
cd .ssh
cat 10.96.21.120 >> authorized_keys

启动sshd客户端(master操作)

ssh-agent

添加id_rsa到ssh-agent(添加私钥到客户端)(master操作)

ssh-add id_rsa

验证

ssh -p 60022 slave1
ssh -p 60022 slave2

6:设置hadoop

配置hadoop-env.sh (三台机器都操作)

vi hadoop-env.sh
export JAVA_HOME=/soft/jdk1..0_21
export HADOOP_OPTS=-Djava.net.preferIPv4Stack=true
export HADOOP_SSH_OPTS="-p 60022"

配置core-site.xml(三台机器都操作)

 vi core-site.xml

<property>
<name>fs.default.name</name>
<value>hdfs://master:54310</value>
<description>The name of the default file system. A URI whose
scheme and authority determine the FileSystem implementation. The
uri's scheme determines the config property (fs.SCHEME.impl) naming
the FileSystem implementation class. The uri's authority is used to
determine the host, port, etc. for a filesystem.</description>
</property> <property>
<name>hadoop.tmp.dir</name>
<value>/app/hadoop</value>
</property>

配置hdfs-site.xml(三台机器都操作)

vi hdfs-site.xml

<property>
<name>dfs.replication</name>
<value>2</value>
<description>Default block replication.
The actual number of replications can be specified when the file is created.
The default is used if replication is not specified in create time.
</description>
</property>

配置mapred-site.xml(三台机器上操作)

<property>
<name>mapred.job.tracker</name>
<value>master:54311</value>
<description>The host and port that the MapReduce job tracker runs
at. If "local", then jobs are run in-process as a single map
and reduce task.
</description>
</property>

配置master(master上操作)

vi masters
master

配置slave(master上操作)

vi slaves
slave1
slave2

设置hadoop用到的目录的权限

mkdir /app/hadoop
chmod 777 /app/hadoop chmod 777 /soft/hadoop (hadoop所在的目录,默认日志要建立在这里)

7:启动集群

格式名称节点(master上操作)

bin/hadoop namenode -format

开启文件系统(master上操作)

bin/start-dfs.sh

开启map

bin/start-mapred.sh

验证

master

26463 Jps
24660 NameNode
25417 JobTracker
24842 SecondaryNameNode

slave

23823 TaskTracker
4636 DataNode
23964 Jps

执行mapreduce程序用到的命令

bin/hadoop fs -rmr output  [删除文件夹]
bin/hadoop fs -mkdir input [创建文件夹]
bin/hadoop fs -put /soft/hadoop/file.txt input
bin/hadoop fs -get /user/hadoop/output/part-r-00000

如果要用到第三方类库{比如把结果写到redis中}需要把类库放到每台服务器的lib文件夹下。

注意hostname名称一致

ssh只需要master到slave连通就行,不需要slave之间连通

关闭防火墙

错误:name node is in safe mode hadoop

解决:bin/hadoop dfsadmin -safemode leave

hdfs的web管理界面是http://10.96.21.120:50070/dfshealth.jsp

如何部署hadoop集群的更多相关文章

  1. Docker部署Hadoop集群

    Docker部署Hadoop集群 2016-09-27 杜亦舒 前几天写了文章"Hadoop 集群搭建"之后,一个朋友留言说希望介绍下如何使用Docker部署,这个建议很好,Doc ...

  2. 批量部署Hadoop集群环境(1)

    批量部署Hadoop集群环境(1) 1. 项目简介: 前言:云火的一塌糊涂,加上自大二就跟随一位教授做大数据项目,所以很早就产生了兴趣,随着知识的积累,虚拟机已经不能满足了,这次在服务器上以生产环境来 ...

  3. 阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建

    准备: 两台配置CentOS 7.3的阿里云ECS服务器: hadoop-2.7.3.tar.gz安装包: jdk-8u77-linux-x64.tar.gz安装包: hostname及IP的配置: ...

  4. 阿里云ECS服务器部署HADOOP集群(二):HBase完全分布式集群搭建(使用外置ZooKeeper)

    本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建,多添加了一个 datanode 节点 . 1 节点环境介绍: 1.1 环境介绍: 服务器:三台阿里 ...

  5. 阿里云ECS服务器部署HADOOP集群(三):ZooKeeper 完全分布式集群搭建

    本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建,多添加了一个 datanode 节点 . 1 节点环境介绍: 1.1 环境介绍: 服务器:三台阿里 ...

  6. 阿里云ECS服务器部署HADOOP集群(六):Flume 安装

    本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建. 1 环境介绍 一台阿里云ECS服务器:master 操作系统:CentOS 7.3 Hadoop ...

  7. 阿里云ECS服务器部署HADOOP集群(七):Sqoop 安装

    本篇将在 阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建 阿里云ECS服务器部署HADOOP集群(二):HBase完全分布式集群搭建(使用外置ZooKeeper) 阿 ...

  8. 阿里云ECS服务器部署HADOOP集群(五):Pig 安装

    本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建. 1 环境介绍 一台阿里云ECS服务器:master 操作系统:CentOS 7.3 Hadoop ...

  9. 阿里云ECS服务器部署HADOOP集群(四):Hive本地模式的安装

    本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建. 本地模式需要采用MySQL数据库存储数据. 1 环境介绍 一台阿里云ECS服务器:master ...

随机推荐

  1. Oracle GoldenGate常用配置端口

    1 简介 Oracle Golden Gate软件是一种基于日志的结构化数据复制备份软件,它通过解析源数据库在线日志或归档日志获得数据的增量变化,再将这些变化应用到目标数据库,从而实现源数据库与目标数 ...

  2. Kibana加载样本数据

    kibana 6.2 加载样本数据 kibana loading sample data 下载样本数据 # 莎士比亚经典作品 wget https://download.elastic.co/demo ...

  3. [转] 插件兼容CommonJS, AMD, CMD 和 原生 JS

    模块标准 CommonJS CommonJS 有三个全局变量 module.exports 和 require.但是由于 AMD 也有 require 这个全局变量,故不使用这个变量来进行检测. 如果 ...

  4. hibernate查询竟然有6种方法

    hibernate查询的6种方法 1.HQL查询 2.对象化查询Criteria方法 3.动态查询DetachedCriteria 4.例子查询 5.sql查询 6.命名查询 1.HQL查询 stat ...

  5. python全栈开发day22-常用模块二(hashlib、configparse、logging)

    一.昨日内容回顾 1.钻石继承 #新式类,本身或父类显示继承object #找名字的时候是广度优先顺序 #有mro方法,super方法, # super并不是单纯的找父类,和mro顺序是完全对应的 # ...

  6. BZOJ4989 [Usaco2017 Feb]Why Did the Cow Cross the Road 树状数组 逆序对

    欢迎访问~原文出处——博客园-zhouzhendong 去博客园看该题解 题目传送门 - BZOJ4989 题意概括 一条马路的两边分别对应的序列A.B,长度为n,两序列为1到n的全排列.当Ai=Bj ...

  7. 《Gradle权威指南》--Gradle插件

    No1: 应用插件 apply plugin:'java' apply plugin:org.gradle.api.plugins.JavaPlugin apply plugin:JavaPlugin ...

  8. uva1354 天平难题 【位枚举子集】||【huffman树】

    题目链接:https://vjudge.net/contest/210334#problem/G 转载于:https://blog.csdn.net/todobe/article/details/54 ...

  9. [NOIp2013普及组]车站分级

    思路: 对于每一趟车,将区间内所有经停的站和所有未经停的站连一条边,表示前者优先级一定高于后者,然后用Kahn跑一遍拓扑排序即可.然而这样会创造大量多余的边,会TLE1个点.考虑一种优化:因为每趟车本 ...

  10. bootStrap中的翻页效果

    <div class="container"> <br/> <ul class="pagination"> <li&g ...