我这边给出我的集群环境是由一台主节点master和三台从节点slave组成:

master     192.168.1.2

slave1       192.168.1.3

slave2       192.168.1.4

slave3       192.168.1.5

申明:我搭建的这个集群不是在普通用户,所以一下操作都是在超级用户root上。

一、虚拟机的安装

a)         我们从centos官网下载CentOS7(下载DVD IOS镜像就行了)

b)         在VMware Workstation 11上安装四台虚拟机,这里的具体的安装步骤,我就不再赘述。

二、虚拟机前期配置

a)         装好四台虚拟机后,我们设置虚拟机为静态IP,并修改一下虚拟机的主机名和IP地址,还需要增加IP与主机映射:

1)  修改主机名(分别在四台虚拟机修改为:master、slave1、slave2和slave3):

vi /etc/hostname

2)  修改IP地址并设置为静态IP:

vi /etc/sysconfig/network-scripts/ifcfg-eno16777736(虚拟机的网卡一般默认都是ifcfg-eno16777736)

增加以下内容:

BOOTPROTO=static  #设置为静态IP

ONBOOT=yes    #打开网卡

IPADDR=192.168.1.2        #设置IP,对应上面给出的四个IP地址,这里是master的IP

NETMASK=255.255.255.0         #设置子网掩码

GATEWAY=192.168.1.1     #设置网关

DNS1=8.8.8.8   #设置DNS,这里是Google的两个域名解析

DNS2=8.8.4.4

3)  增加IP与主机映射:

vi /etc/hosts

增加以下内容:

192.168.1.2       master

192.168.1.3      slave1

192.168.1.4     slave2

192.168.1.5     slave3

4)在完成以上步骤后reboot重启四台虚拟机:

reboot

三、ssh免密码登录

a)      在每台虚拟机的根目录root下,创建ssh公钥:

1)  ssh-keygen –t rsa   #连续回车,系统自动生成图形公钥

2)  在master中,进入.ssh目录,并将公钥写到authorized_keys:

cd .ssh/

ssh master cat /root/.ssh/id_rsa.pub>> authorized_keys #需要输入超级用户密码

ssh slave1 cat /root/.ssh/id_rsa.pub>> authorized_keys #需要输入超级用户密码

ssh slave2 cat /root/.ssh/id_rsa.pub>> authorized_keys #需要输入超级用户密码

ssh slave3 cat id_rsa.pub>> authorized_keys #需要输入超级用户密码

3)  更改authorized_keys属性,使之不能被修改:

chmod 600 authorized_keys

4)  在master的.ssh目录下,将生成的known_hosts和authorized_keys复制到各个从节点:

scp authorized_keys root@slave1:/root/ #需要输入超级用户密码

scp authorized_keys root@slave2:/root/ #需要输入超级用户密码

scp authorized_keys root@slave3:/root/ #需要输入超级用户密码

scp known_hosts root@slave1:/root/

scp known_hosts root@slave1:/root/

scp known_hosts root@slave1:/root/

5)      验证ssh的免密码登录:

在master中输入:ssh slave1、ssh slave2和ssh slave3是否需要密码,如果不需要,则ssh免密码配置成功。

四、jdk安装

五、scala安装

六、Hadoop2.6的解压安装

a)         我们从cloudera官网下载Hadoop-2.6.0-cdh5版本的压缩包

b)         在master节点中,解压Hadoop压缩包到/root/app/中:

tar –xzvf hadoop-2.6.0-cdh5.4.0.tar.gz

七、集群环境Hadoop的配置

在master中,进入到Hadoop的配置目录:

cd hadoop-2.6.0-cdh5.4.0 /etc/hadoop

a)         slaves的配置:

vi slaves

删除localhost,增加三个从节点:

slave1

slave2

slave3

b)         core-site.xml的配置:

在此之前,需要在Hadoop目录下创建data/tmp:

mkdir data

cd data

mrdir tmp

mkdir dfs

cd dfs

mkdir data

mkdir name

在hadoop-2.6.0-cdh5.4.0 /etc/hadoop下:

vi core-site.xml

在core-site.xml中增加:

<property>

<name>hadoop.tmp.dir</name>

<value>/root/app/hadoop-2.6.0-cdh5.4.0/data/tmp</value>

</property>

<property>

<name>fs.defaultFS</name>

<value>hdfs://master:8020</value>

</property>

c)         hdfs-site.xml的配置:

vi hdfs-site.xml

在hdfs-site.xml增加:

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>master:50090</value>

</property>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>/root/app/hadoop-2.6.0-cdh5.4.0/data/tmp/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/root/app/hadoop-2.6.0-cdh5.4.0/data/tmp/dfs/data</value>

</property>

d)         mapred-site.xml的配置:

vi mapred-site.xml

在mapred-site.xml增加:

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

e)         yarn-site.xml的配置:

vi yarn-site.xml

在yarn-site.xml增加:

<property>

<name>yarn.resourcemanager.hostname</name>

<value>master</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

f)    在hadoop-env.sh文件的最后加:

export JAVA_HOME=/usr/local/jdk(Java安装环境)

g)          配置好master中的Hadoop后,将Hadoop复制到各个节点对应位置上:

scp –r /root/app/hadoop-2.6.0-cdh5.4.0 slave1:/root/app/

scp –r /root/app/hadoop-2.6.0-cdh5.4.0 slave2:/root/app/

scp –r /root/app/hadoop-2.6.0-cdh5.4.0 slave3:/root/app/

八、启动hadoop

a)在主节点master的hadoop的目录下:

bin/hdfs namenode –format

sbin/start-dfs.sh

sbin/start-yarn.sh

然后在主节点master输入jps可以查看到NameNode、SecondaryNameNode、Jps和ResourceManager四个进程。

在从节点slave输入jps可以查看到Jps、NodeManager和DataNode三个进程。

b)         出现以上进程提示,恭喜你,你的hadoop的环境搭建完成!

Hadoop2.6.0在CentOS 7中的集群搭建的更多相关文章

  1. 大数据中Hadoop集群搭建与配置

    前提环境是之前搭建的4台Linux虚拟机,详情参见 Linux集群搭建 该环境对应4台服务器,192.168.1.60.61.62.63,其中60为主机,其余为从机 软件版本选择: Java:JDK1 ...

  2. 大数据中HBase集群搭建与配置

    hbase是分布式列式存储数据库,前提条件是需要搭建hadoop集群,需要Zookeeper集群提供znode锁机制,hadoop集群已经搭建,参考 Hadoop集群搭建 ,该文主要介绍Zookeep ...

  3. CentOS 7 下 RabbitMQ 集群搭建

    环境 10.0.0.20 node1 10.0.0.21 node2 10.0.0.22 node3 搭建(在所有节点执行) 添加EPEL源 [root@node1 ~]# rpm -Uvh http ...

  4. Centos下Apache+Tomcat集群--搭建记录

    一.目的 利用apache的mod_jk模块,实现tomcat集群服务器的负载均衡以及会话复制,这里用到了<Cluster>. 二.环境 1.基础:3台主机,系统Centos6.5,4G内 ...

  5. CentOS 7下ElasticSearch集群搭建案例

    最近在网上看到很多ElasticSearch集群的搭建方法,本人在这人使用Elasticsearch5.0.1版本,介绍如何搭建ElasticSearch集群并安装head插件和其他插件安装方法. 一 ...

  6. Centos7.4 Storm2.0.0 + Zookeeper3.5.5 高可用集群搭建

    想了下还是把kafka集群和storm集群分开比较好 集群规划: Nimbus Supervisor storm01 √ √ storm02 √(备份) √ storm03 √ 准备工作 老样子复制三 ...

  7. 大数据中Linux集群搭建与配置

    因测试需要,一共安装4台linux系统,在windows上用vm搭建. 对应4个IP为192.168.1.60.61.62.63,这里记录其中一台的搭建过程,其余的可以直接复制虚拟机,并修改相关配置即 ...

  8. Kafka在Centos6.4中的集群搭建

    环境要求:三台装有Centos6.4的虚拟机,需要有java1.7以上的环境,需要ZooKeeper环境. 1)从Kafka官网下载Kafka安装包 下载Kafka 2)解压安装包 tar -xzf ...

  9. hadoop2.6.0集群搭建

    p.MsoNormal { margin: 0pt; margin-bottom: .0001pt; text-align: justify; font-family: Calibri; font-s ...

随机推荐

  1. https 的理解

    前言: 本篇博文来记录下对http及https的理解.(会有点 杂,补缺补漏) 引用:https://blog.csdn.net/u011109589/article/details/80306479 ...

  2. PAT 甲级 1004 Counting Leaves

    https://pintia.cn/problem-sets/994805342720868352/problems/994805521431773184 A family hierarchy is ...

  3. 开发模式 MVC、MVP、MVVM和MVX框架模式

    MVX框架模式的了解 MVX框架模式:MVC+MVP+MVVM 1.MVC: Model(模型)+View(视图)+controller(控制器),主要是基于分层的目的,让彼此的职责分开.View通过 ...

  4. 【CSS】规范大纲

    文件规范: 文件分类 : 通用类 :业务类. 文件引入:行内样式(不推荐):外联引入:内联引入.(避免使用Import引入) 文件本身:文件名. 编码:UTF-8. 注释规范: 块状注释:统一缩进,在 ...

  5. 解决Slave SQL线程Waiting for binlog lock

       最近在我们线上库物理备份的时候出现一个奇怪的现象:    我们备份都在从库上备份的,在业务低一般是在晚上2点钟开始备份.有天发现从库的延迟一直在增加,登录上实例,通过show processli ...

  6. 一些说明&其他奇奇怪怪的东西

    NOIP考完了,这篇博客彻底咕了.

  7. BZOJ 1014 火星人 | 平衡树维护哈希

    BZOJ 1014 火星人 题意 有一个字符串,三中操作:在某位置后面插入一个字符.修改某位置的字符.询问两个后缀的最长公共前缀. 题解 看到网上的dalao们都说这道题是平衡树,我就很懵x--平衡树 ...

  8. 搭建hadoop集群

    hadoop的架构 HDFS + MapReduce = Hadoop MapReduce = Mapper + Reducer hadoop的生态系统 准备四个节点,系统版本为CentOS7.3 1 ...

  9. #define后面只带有一个标识符

    经常看到有#define后只有一个标识符的语句,这样是做宏开关用 宏定义编译前会被编译器进行替换,只有一个标识符的情况,如果在代码里使用了这个标识符,会被替换为空,也就是相当于没加. 用来做编译开关的 ...

  10. [网络流]小M的作物

    小\(M\)的作物(最小割) 做的第一道网络流,因为一个智障错误调了好久嘤嘤嘤 题目描述 小\(M\)在\(MC\)里开辟了两块巨大的耕地\(A\)和\(B\)(你可以认为容量是无穷),现在,小\(P ...