我这边给出我的集群环境是由一台主节点master和三台从节点slave组成:

master     192.168.1.2

slave1       192.168.1.3

slave2       192.168.1.4

slave3       192.168.1.5

申明:我搭建的这个集群不是在普通用户,所以一下操作都是在超级用户root上。

一、虚拟机的安装

a)         我们从centos官网下载CentOS7(下载DVD IOS镜像就行了)

b)         在VMware Workstation 11上安装四台虚拟机,这里的具体的安装步骤,我就不再赘述。

二、虚拟机前期配置

a)         装好四台虚拟机后,我们设置虚拟机为静态IP,并修改一下虚拟机的主机名和IP地址,还需要增加IP与主机映射:

1)  修改主机名(分别在四台虚拟机修改为:master、slave1、slave2和slave3):

vi /etc/hostname

2)  修改IP地址并设置为静态IP:

vi /etc/sysconfig/network-scripts/ifcfg-eno16777736(虚拟机的网卡一般默认都是ifcfg-eno16777736)

增加以下内容:

BOOTPROTO=static  #设置为静态IP

ONBOOT=yes    #打开网卡

IPADDR=192.168.1.2        #设置IP,对应上面给出的四个IP地址,这里是master的IP

NETMASK=255.255.255.0         #设置子网掩码

GATEWAY=192.168.1.1     #设置网关

DNS1=8.8.8.8   #设置DNS,这里是Google的两个域名解析

DNS2=8.8.4.4

3)  增加IP与主机映射:

vi /etc/hosts

增加以下内容:

192.168.1.2       master

192.168.1.3      slave1

192.168.1.4     slave2

192.168.1.5     slave3

4)在完成以上步骤后reboot重启四台虚拟机:

reboot

三、ssh免密码登录

a)      在每台虚拟机的根目录root下,创建ssh公钥:

1)  ssh-keygen –t rsa   #连续回车,系统自动生成图形公钥

2)  在master中,进入.ssh目录,并将公钥写到authorized_keys:

cd .ssh/

ssh master cat /root/.ssh/id_rsa.pub>> authorized_keys #需要输入超级用户密码

ssh slave1 cat /root/.ssh/id_rsa.pub>> authorized_keys #需要输入超级用户密码

ssh slave2 cat /root/.ssh/id_rsa.pub>> authorized_keys #需要输入超级用户密码

ssh slave3 cat id_rsa.pub>> authorized_keys #需要输入超级用户密码

3)  更改authorized_keys属性,使之不能被修改:

chmod 600 authorized_keys

4)  在master的.ssh目录下,将生成的known_hosts和authorized_keys复制到各个从节点:

scp authorized_keys root@slave1:/root/ #需要输入超级用户密码

scp authorized_keys root@slave2:/root/ #需要输入超级用户密码

scp authorized_keys root@slave3:/root/ #需要输入超级用户密码

scp known_hosts root@slave1:/root/

scp known_hosts root@slave1:/root/

scp known_hosts root@slave1:/root/

5)      验证ssh的免密码登录:

在master中输入:ssh slave1、ssh slave2和ssh slave3是否需要密码,如果不需要,则ssh免密码配置成功。

四、jdk安装

五、scala安装

六、Hadoop2.6的解压安装

a)         我们从cloudera官网下载Hadoop-2.6.0-cdh5版本的压缩包

b)         在master节点中,解压Hadoop压缩包到/root/app/中:

tar –xzvf hadoop-2.6.0-cdh5.4.0.tar.gz

七、集群环境Hadoop的配置

在master中,进入到Hadoop的配置目录:

cd hadoop-2.6.0-cdh5.4.0 /etc/hadoop

a)         slaves的配置:

vi slaves

删除localhost,增加三个从节点:

slave1

slave2

slave3

b)         core-site.xml的配置:

在此之前,需要在Hadoop目录下创建data/tmp:

mkdir data

cd data

mrdir tmp

mkdir dfs

cd dfs

mkdir data

mkdir name

在hadoop-2.6.0-cdh5.4.0 /etc/hadoop下:

vi core-site.xml

在core-site.xml中增加:

<property>

<name>hadoop.tmp.dir</name>

<value>/root/app/hadoop-2.6.0-cdh5.4.0/data/tmp</value>

</property>

<property>

<name>fs.defaultFS</name>

<value>hdfs://master:8020</value>

</property>

c)         hdfs-site.xml的配置:

vi hdfs-site.xml

在hdfs-site.xml增加:

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>master:50090</value>

</property>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>/root/app/hadoop-2.6.0-cdh5.4.0/data/tmp/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/root/app/hadoop-2.6.0-cdh5.4.0/data/tmp/dfs/data</value>

</property>

d)         mapred-site.xml的配置:

vi mapred-site.xml

在mapred-site.xml增加:

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

e)         yarn-site.xml的配置:

vi yarn-site.xml

在yarn-site.xml增加:

<property>

<name>yarn.resourcemanager.hostname</name>

<value>master</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

f)    在hadoop-env.sh文件的最后加:

export JAVA_HOME=/usr/local/jdk(Java安装环境)

g)          配置好master中的Hadoop后,将Hadoop复制到各个节点对应位置上:

scp –r /root/app/hadoop-2.6.0-cdh5.4.0 slave1:/root/app/

scp –r /root/app/hadoop-2.6.0-cdh5.4.0 slave2:/root/app/

scp –r /root/app/hadoop-2.6.0-cdh5.4.0 slave3:/root/app/

八、启动hadoop

a)在主节点master的hadoop的目录下:

bin/hdfs namenode –format

sbin/start-dfs.sh

sbin/start-yarn.sh

然后在主节点master输入jps可以查看到NameNode、SecondaryNameNode、Jps和ResourceManager四个进程。

在从节点slave输入jps可以查看到Jps、NodeManager和DataNode三个进程。

b)         出现以上进程提示,恭喜你,你的hadoop的环境搭建完成!

Hadoop2.6.0在CentOS 7中的集群搭建的更多相关文章

  1. 大数据中Hadoop集群搭建与配置

    前提环境是之前搭建的4台Linux虚拟机,详情参见 Linux集群搭建 该环境对应4台服务器,192.168.1.60.61.62.63,其中60为主机,其余为从机 软件版本选择: Java:JDK1 ...

  2. 大数据中HBase集群搭建与配置

    hbase是分布式列式存储数据库,前提条件是需要搭建hadoop集群,需要Zookeeper集群提供znode锁机制,hadoop集群已经搭建,参考 Hadoop集群搭建 ,该文主要介绍Zookeep ...

  3. CentOS 7 下 RabbitMQ 集群搭建

    环境 10.0.0.20 node1 10.0.0.21 node2 10.0.0.22 node3 搭建(在所有节点执行) 添加EPEL源 [root@node1 ~]# rpm -Uvh http ...

  4. Centos下Apache+Tomcat集群--搭建记录

    一.目的 利用apache的mod_jk模块,实现tomcat集群服务器的负载均衡以及会话复制,这里用到了<Cluster>. 二.环境 1.基础:3台主机,系统Centos6.5,4G内 ...

  5. CentOS 7下ElasticSearch集群搭建案例

    最近在网上看到很多ElasticSearch集群的搭建方法,本人在这人使用Elasticsearch5.0.1版本,介绍如何搭建ElasticSearch集群并安装head插件和其他插件安装方法. 一 ...

  6. Centos7.4 Storm2.0.0 + Zookeeper3.5.5 高可用集群搭建

    想了下还是把kafka集群和storm集群分开比较好 集群规划: Nimbus Supervisor storm01 √ √ storm02 √(备份) √ storm03 √ 准备工作 老样子复制三 ...

  7. 大数据中Linux集群搭建与配置

    因测试需要,一共安装4台linux系统,在windows上用vm搭建. 对应4个IP为192.168.1.60.61.62.63,这里记录其中一台的搭建过程,其余的可以直接复制虚拟机,并修改相关配置即 ...

  8. Kafka在Centos6.4中的集群搭建

    环境要求:三台装有Centos6.4的虚拟机,需要有java1.7以上的环境,需要ZooKeeper环境. 1)从Kafka官网下载Kafka安装包 下载Kafka 2)解压安装包 tar -xzf ...

  9. hadoop2.6.0集群搭建

    p.MsoNormal { margin: 0pt; margin-bottom: .0001pt; text-align: justify; font-family: Calibri; font-s ...

随机推荐

  1. PHP 更改session存储方式为Redis

    前言: 服务器默认的session存放方式是file.当客户端发送请求带有PHPSESSID时是顺序的去比对session存储文件,如果有5000个session文件,那就有可能需要比对4998次那么 ...

  2. [转帖]NVMe到底是什么?用它的SSD有啥优势?

    NVMe到底是什么?用它的SSD有啥优势? 2015-8-20 14:00  |  作者:Strike   |  关键字:NVMe,SSD,PCI-E SSD,超能课堂 分享到       有关注SS ...

  3. filebeat向kafka中传输数据报WARN Failed to connect to broker DOMSDev07:9092: dial tcp: lookup DOMSDev07: getaddrinfow: No such host is known.解决方法

    打开filebeat客户端所在机器C:\Windows\System32\drivers\etc目录,找到hosts文件 以记事本形式打开,在底部追加 “IP 主机名” 即可

  4. .net webapi创建接口

    最近使用webapi做了一个用户数据库接口,方便其它网站接入验证用户,实现中解决出现的一些问题,做了一些记录, 1.返回显示为json数据 2.允许其他网站访问,刚开始没有设,在本地机测试时可以访问, ...

  5. nowcoder 203J Graph Coloring I(dfs)

    题目链接 题目描述 修修在黑板上画了一些无向连通图,他发现他可以将这些图的结点用两种颜色染色,满足相邻点不同色. 澜澜不服气,在黑板上画了一个三个点的完全图.修修跟澜澜说,这个图我能找到一个简单奇环. ...

  6. 深度学习读书笔记之RBM(限制波尔兹曼机)

    深度学习读书笔记之RBM 声明: 1)看到其他博客如@zouxy09都有个声明,老衲也抄袭一下这个东西 2)该博文是整理自网上很大牛和机器学习专家所无私奉献的资料的.具体引用的资料请看参考文献.具体的 ...

  7. P3165 [CQOI2014]排序机械臂

    题目描述 为了把工厂中高低不等的物品按从低到高排好序,工程师发明了一种排序机械臂.它遵循一个简单的排序规则,第一次操作找到高度最低的物品的位置 P1P_1P1​ ,并把左起第一个物品至 P1P_1P1 ...

  8. hbase 原子操作cas

    在高并发的情况下,对数据row1  column=cf1:qual1, timestamp=1, value=val1的插入或者更新可能会导致非预期的情况, 例如:原本客户端A需要在value=val ...

  9. 何登成大神对Innodb加锁的分析

    背景 MySQL/InnoDB的加锁分析,一直是一个比较困难的话题.我在工作过程中,经常会有同事咨询这方面的问题.同时,微博上也经常会收到MySQL锁相关的私信,让我帮助解决一些死锁的问题.本文,准备 ...

  10. [洛谷P4340][SHOI2016]随机序列

    题目大意:有$n(n\leqslant10^5)$个数,每两个数之间可以加入$+-\times$三种符号,$q(q\leqslant10^5)$次询问,每次询问修改一个数后,所有表达式可能的值的和 题 ...