前言

前面我们主要分析了搭建Hadoop集群所需要准备的内容和一些提前规划好的项,本篇我们主要来分析如何安装CentOS操作系统,以及一些基础的设置,闲言少叙,我们进入本篇的正题。

技术准备

VMware虚拟机、CentOS 6.8 64 bit

安装流程

因为我的笔记本是Window7操作系统,然后内存配置,只有8G,内存配置太低了,当然为了演示,我会将Hadoop集群中的主节点分配2GB内存,然后剩余的三个节点都是1GB配置。

所有的节点存储我都设置为50GB。

在安装操作系统之前,我们需要提前规划好操作系统的分区如何设置,我们知道,在Linux系统中,它的磁盘分区并不同于Windows系统,它是通过目录挂载的方式进行分区,简单点说的话就是将不同的系统内置目录进行分配到不同的逻辑分区中,然后我们在进行存储的时候只需要根据目录进行存放就可以了。

上面的这种分区方式是和Windows操作系统有区别的,当然在Linux操作系统中还存在磁盘格式的不同,比如一般常见的格式为:ext2,ext3,ext4等,我们当前最常用的就是ext3,关于每种格式的不同点和应用场景大家有兴趣的可以网上查阅,这里不再赘述。

那么我们来分析一下Linux系统中最常见的几种目录分区方式

  • /boot 系统引导目录,用来存放与Linux系统启动相关的程序,比如启动引导装载程序等。建议大小200MB。
  • /usr  存放系统中安装的应用程序,一般的数据都比较多,所以建议大于3GB。
  • /var  用来存放Linux系统中经常变化的数据以及日志文件,建议大于1GB。
  • /home 存放普通用户的数据,是普通用户的宿主目录,一般一个用户就会创建一个home目录,建议大小为剩下的空间。
  • /  为Linux系统的根目录,所有的目录都挂在到这个目录下面,建议大小为大于5GB以上。
  • /tmp 临时文件存放的地方,一般需要独立的分区,这样可以避免系统被塞满后系统的稳定性。建议大小为500MB以上。
  • swap  这个是虚拟内存,一般建议为物理内存的1——2倍。

以上为我基于我们的50GB的存储空间做的一个规划,如果生产或者物理机大家可以根据需要成比例递增。

下面,咱们进去CentOS操作系统的详细安装过程。

1、首先需要在VMWare中创建一个新的计算机,然后指定CentOS的镜像路径和用户名和密码。

2、指定当前虚拟机操作系统的存储大小和内存大小。

3、点击完成VMware就进入了系统自动安装的过程中,然后等待完成安装就可以。

4、至此,我们已经成功的安装上了CentOS操作系统,然后安装的过程中顺便创建了一个新用户Hadoop,这个账户就是我们后面安装Hadoop集群环境所使用的账号。

5、我们登陆到CentOS操作系统,然后进入系统的首先要做的事情就是:改计算机名!改计算机名!改计算机名!。

打开终端输入界面,然后根据角色更改当前计算机的名称。打开终端的方式是在右键——>Open In Terminal

  • 输入su命令,切换至root超级用户,然后利用vim 命令编辑/etc/sysconfig/network文件。

  • 然后编辑文件中的HOSTNAME,设置为我们提前规划好的Master.Hadoop

  • 然后保存该文件,重启计算机。

  • 重启计算机,查看设置是否生效。

至此,你的计算机名称更改完毕!

6、在修改完成计算机名之后,我们需要做的就是设置固定IP,然后配置Host文件。

当然,这里有几个知识点需要跟大家讲解一下,就是关于网络的配置,其实在VMware虚拟机中存在几种网络模式:

其实,这里最常用的就是第二种模式:NAT模式(N):用于共享主机的IP地址,但是,这里我需要跟大家讲解的是,其实在我们的生产环境中,每一台虚拟机都是需要独立配置IP的,为了最大限度的避免因为宿主机的网络带来的问题,在Hadoop集群中我们选择第一种模式:桥接模式(B):直接连接物理网络。啥意思呢?意思就是很简单,虽然你现在用的是虚拟机,但是把它当成物理机一样,也给插上网线,连接到本地的网络中去。

当然,如果选择这种方式的前提是要保证你的局域网的网段和之前咱们规划的IP是一致的,必须都是192.168.1.* 这种网段,这样的目的很简单就是宿主机和我们的虚拟机能够直接通信,那就意味这主机能联网,我们的虚拟机就能联网。

然后,我们进入我们的虚拟机进行固定IP的设置。

我们利用界面进行设置,毕竟这种方式比较简单易操作:

然后,根据我们之前的系统规划,将我们的IP设置上,这里有一个选项一定要勾选上:Available to all users.我之前搭建集群的时候就因为这一个选择折腾了我一天的时间!!这都是坑哈...记住了!!!勾上!!

然后,就是验证我们当前虚拟机是否能上网,IP是否能成功配置。

然后,确保能上网,毕竟咱们需要下载很多安装包。

应该明白上面我输入的含义吧、这货是最常用的命令。

最后一定要记得修改我们的hosts文件,当然了在生产集群中一般都会有自己的DNS服务器,但是这里我们条件有限,就手动的配置下Host文件得了。

切换至root超级管理员账户,然后修改host文件,执行以下命令:

vim /etc/hosts

保存文件,然后重启一下服务器。至此,关于服务器的网络我们已经配置完成了。

7、上面我们完成了CentOS的基础配置,确保了计算机能够联网,下面我们就需要下载Hadoop安装包,然后进入Hadoop集群的搭建工作。

首先,我们需要下载安装Hadoop集群环境中需要的Jdk包,因为Java编写的嘛,然后下载Hadoop安装包,所以我们切换到CentOS的Downloads目录下:

cd /home/hadoop/Downloads

然后,下载我们所需要的安装包,到这个目录下:

cd /home/hadoop/Downloads/

我们找到相关的版本的java JDK和Hadoop版本包,这里我们选择Hadoop 最新的安装包,记住下载安装包的时候一定要上Hadoop官网上下载,能避免很多不必要的麻烦。

CentOS中下载脚本如下:

wget http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.6.4/hadoop-2.6.4.tar.gz

然后,我们下载JDK,这个上Oracle官网上,找到最新版本的JDK下载就可以了,同样我们也保存到Downloads目录中。

JDK下载脚本如下:

wget http://download.oracle.com/otn-pub/java/jdk/8u101-b13/jdk-8u101-linux-x64.tar.gz

到此,我们已经准备好了相关的安装包,有图有真相:

当然了,如果感觉这种方式比较麻烦,就直接下载到本地,然后拷贝到CentOS系统中就可以了,文章的最后我也会给出相关的下载包文件,再次提醒:一定要上官网下载!

8、上面完成了安装包的下载,下面就是Hadoop配置了。

其实,关于Hadoop环境的配置分为两步:1、Java环境配置;2、Hadoop配置。原因很简单,因为Hadoop就是Java语言编写的,所以一定要先配置好Java环境。

  • Java环境的配置

首先,我们来解压刚才我们下载的JDK文件,然后配置环境变量。

解压脚本如下,记住一点要在刚才咱们下载的Downloads文件夹下进行:

tar -zxvf jdk-8u101-linux-x64.tar.gz 

如果这里一直报错,或者没法解压,那说明你下载的JDK安装包不完整,需要从新下载,或者你直接Windows环境下确保下载完成,顺便解压了。
所以,这里我就用了之前已经下载的jdk版本,直接解压就好了。

然后,上面我们已经介绍过,一般将安装的程序存入到系统的/usr目录中,所以这里在usr目录中创建一个Java目录,然后配置环境变量。

mkdir /usr/java

上面的脚本需要在root超级用户下进行创建,所以在执行命令的需要先用su命令进行提权。创建完成之后,记得更改一下这个java新建目录的权限。

chown hadoop:hadoop /usr/java/

上面的脚本就是将这个新建的java目录,变更Owner,直接赋权给hadoop用户。因为我们需要用这个用户进行环境的搭建。我们来验证下:

这里重点提示下:权限配置在linux系统中是一个很重的流程,一定要确保当前用户能够拥有文件的执行权限,要不会出现各种莫名其妙的问题!!!

下面,我们来更改一下系统的环境变量,记得使用root用户,编辑脚本:

vim /etc/profile

添加,如下脚本:

# set java environment
export JAVA_HOME=/usr/java/jdk1..0_73
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin

然后,将我们解压好的java文件夹拷贝至我们新创建的文件夹,刷新该文件,验证是否生效,脚本如下:

[root@Master Downloads]# cp -r jdk1..0_73 /usr/java/
[root@Master Downloads]# java -version

至此,我们的Java运行环境已经配置完成。

  • Hadoop环境的配置

Hadoop的安装其实很简单的,因为只需要配置好相应的几个关键我文件就可以了。

首先,和上面的java配置类似,我们现在/usr目录下创建一个hadoop文件夹,然后赋权给hadoop用户,然后将我们下载的hadoop安装包进行解压,拷贝至我们新建的hadoop目录,脚本如下:

--解压Hadoop安装包
tar -zxvf hadoop-2.6..tar.gz
--/usr目录下,创建hadoop目录
mkdir /usr/hadoop
--拷贝解压后的hadoop安装包
cp -r hadoop-2.6. /usr/hadoop
--赋权给Hadoop用户
chown hadoop:hadoop /usr/hadoop/

我们下面就是需要对几个关键的文件进行配置了,详细步骤如下:

首先,我们先进入到我们要配置的hadoop安装目录中:

cd /usr/hadoop/hadoop-2.6./

这里提示一下,所有的咱们需要配置的文件都存放于hadoop安装目录的/etc/hadoop中,首先咱们来配置第一个文件core-site.xml

vim etc/hadoop/core-site.xml

添加以下内容:

<configuration>
<!-- HDFS file path -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.1.50:9000</value>
</property> <property>
<name>io.file.buffer.size</name>
<value></value>
</property> <property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/hadoop/hadoop-2.6./tmp</value>
<description>Abasefor other temporary directories.</description>
</property>
<property>
</configuration>

上面的配置项很简单,首先配置HDFS默认的连接地址,然后流文件的配置大小,默认是4K太小了,这里我们将这个值改的大一点,然后最后就是生成临时结果的配置路径,这里需要根据你的配置结果手动创建。

下面,我们就来创建该目录,如果在生产环境中,我们需要将该配置的目录指定到一个固定的配置目录下,这里咱们方便演示就直接配置到Hadoop安装目录里面了。

脚本如下:

mkdir tmp

然后,咱来配置第二个文件hdfs-site.xml

vim etc/hadoop/hdfs-site.xml 
 <property>
<name>dfs.namenode.secondary.http-address</name>
<value>192.168.1.50:</value>
</property> <property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/hadoop/hadoop-2.6./dfs/name</value>
</property> <property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/hadoop/hadoop-2.6./dfs/data</value>
</property> <property>
<name>dfs.replication</name>
<value></value>
</property> <property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>

这几个参数解释下含义:

<1>dfs.namenode.secondary.http-address 这个含义就是SecondName的地址,在上一篇文章中我就分析过,这个是作为NameNode的一个备份,目的就是灾备之用了。因为我们这个就一个机器所以都配置了相同的机器,只是用了不同的端口。

<2>dfs.namenode.name.dirdfs.namenode.data.dir两个配置指的是NameNode存储的DataNode元数据的信息,这里需要配置两个目录一个是存放Name和Data目录,稍后我们需要手动创建出这两个目录

<3>dfs.replication这个含义是数据文件块(black)复制备份的个数,我们知道在HDFS分布式文件系统中,为了保证数据的完整性,底层的机制是需要多拷贝几份数据分不到不同的计算机上的,目的同样是灾备。

<4>dfs.webhdfs.enabled这个指的是是否可以通过web站点进行Hdfs管理,后面我们会演示,如何通过页面打开HDFS文件。

好,我们下面手动来创建上面的Name和Data的两个目录:

mkdir dfs
mkdir dfs/name
mkdir dfs/data

至此,我们第二个文件配置完成。

然后,咱来配置第三个文件mapred-site.xml

前面的两个文件,都有现成的文件进行配置,但是,这第三个文件需要我们自己来创建,当然,Hadoop系统给我们提供了一个模板文件,所以我们拷贝形成一份新的就行了。

我们执行cp命令,来创建一个新的mapred-site.xml文件。

cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml

然后,修改该文件。脚本如下:

vim etc/hadoop/mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>192.168.1.50:</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>192.168.1.50:</value>
</property>
</configuration>

我们来解释这几个参数的含义:第一个就是制定当前Hadoop的并行运行计算架构,这里为yarn,当然还有其它的运行架构比如:spark等,第二个就是Job运行的历史记录Server,第三个就是历史运行记录的Web服务器。

然后,咱来配置第四个文件yarn-site.xml。

vim etc/hadoop/yarn-site.xml 
  <property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>192.168.1.50:</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>192.168.1.50:</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>192.168.1.50:</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>192.168.1.50:</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>192.168.1.50:</value>
</property>

这个yarn的配置参数我就不怎么解释了,因为我们后续的调优会一直围绕这个文件进行。

至此,我们已经完成了Hadoop四个配置文件的配置,然后,不要忘记了最重要的一点:配置Hadoop的jdk路径,不指定是不能运行的。

hadoop-env.sh  和 yarn-env.sh  在开头添加如下java环境变量:

 export JAVA_HOME=/usr/java/jdk1..0_73
vim etc/hadoop/hadoop-env.sh 

同样的道理,我们来配置yarn-env.sh 文件。

好了,到此,我们已经完成了Hadoop所有的配置文件,这个过程一定要小心认真。然后在最后放一个大招,我们知道我们需要制定这所有的文件Hadoop用户都有执行权限,所以我们将通过如下命令将Hadoop文件夹下所有的文件,进行Owner变更。

chown -R hadoop:hadoop /usr/hadoop/hadoop-2.6./

我再强调一遍,已经要把权限配置好,要不后面的运行故障足够把你玩死!!!

8、上面我们完成了Hadoop基础配置,然后我们格式化文件,来启动这个单节点的Hadoop集群。

到此,我们已经完成了Hadoop的配置了,下面要做的就是格式化HDFS文件,然后启动单节点的Hadoop集群。

  • Hadoop 分布式存储系统的HDFS格式化,记住了,这货只能在初始化系统的时候用一次,一次就好了,要不执行一次数据就丢失一次,我们来执行以下命令:
bin/hadoop namenode -format

看到上面现实的信息,那就说明你已经成功执行了,否则报什么错误,解决什么错误。一般错误的原因都是配置文件粗心导致的错误,自己仔细检查就得了。

  • Hadoop 集群进行启动验证

这里的验证方式有两点,第一点就是保证HDFS完整没问题,验证方式如下:

首先,启动HDFS

 sbin/start-dfs.sh

然后,查看状态

bin/hadoop dfsadmin -report

还有一种更直接的方式,直接打开浏览器查看:http://192.168.1.50:50070/dfshealth.html#tab-overview

是不是很酷,这里可以直接查看分布式文件系统HDFS的各个状态。有兴趣的自己查看吧...我们接着验证其它的内容。

  • Hadoop 集群启动查看

首先,我来启动Hadoop集群,然后查看其状态,脚本如下:

sbin/start-yarn.sh 

这次来个大招,直接打来浏览器瞅瞅,地址为:

至此,一款单机版的装X神器Hadoop已经被我们搭建成功,当然这只是单机版的后面我们会逐渐完善它,并且,将节点完全配置成功。

在完成到此的时候,已经可以进行集群搭建了,然后后面的文章我将教你怎么搭建所谓的伪分布式...全分布式的大数据平台。....淡定....不要着急.....

结语

此篇篇幅已经超长度了,先到此吧,关于Hadoop大数据集群的搭建后续依次介绍,比如利用Zookeeper搭建Hadoop高可用平台、Map-Reducer层序的开发、Hive产品的数据分析、Spark的应用程序的开发、Hue的集群坏境的集成和运维、Sqoop2的数据抽取等,有兴趣的童鞋可以提前关注。

本篇主要介绍了搭建一个Hadoop单机集群,后面我们会逐渐完善它,我会教你如何一步步的搭建起完全分布式的Hadoop集群,然后教你如何使用它,骚年...不要捉急...让思维飞一会...

有问题可以留言或者私信,随时恭候有兴趣的童鞋加大数据平台深入研究。共同学习,一起进步。

文章的最后给出上一篇的基础篇:

大数据系列(1)——Hadoop集群坏境搭建配置

如果您看了本篇博客,觉得对您有所收获,请不要吝啬您的“推荐”。

大数据系列(2)——Hadoop集群坏境CentOS安装的更多相关文章

  1. 大数据——Hadoop集群坏境CentOS安装

    前言 前面我们主要分析了搭建Hadoop集群所需要准备的内容和一些提前规划好的项,本篇我们主要来分析如何安装CentOS操作系统,以及一些基础的设置,闲言少叙,我们进入本篇的正题. 技术准备 VMwa ...

  2. 【大数据系列】hadoop集群设置官方文档翻译

    Hadoop Cluster Setup Purpose Prerequisites Installation Configuring Hadoop in Non-Secure Mode Config ...

  3. 【大数据系列】hadoop集群的配置

    一.hadoop的配置文件分类 1.只读类型的默认文件 core-default.xml     hdfs-default.xml    mapred-default.xml   mapred-que ...

  4. 大数据系列(1)——Hadoop集群坏境搭建配置

    前言 关于时下最热的技术潮流,无疑大数据是首当其中最热的一个技术点,关于大数据的概念和方法论铺天盖地的到处宣扬,但其实很多公司或者技术人员也不能详细的讲解其真正的含义或者就没找到能被落地实施的可行性方 ...

  5. 大数据: 完全分布式Hadoop集群-HBase安装

            HBase 是一个开源的非关系(NoSQL)的可伸缩性分布式数据库.它是面向列的,并适合于存储超大型松散数据.HBase适合于实时,随机对Big数据进行读写操作的业务环境.   本文基 ...

  6. 大数据系列(4)——Hadoop集群VSFTP和SecureCRT安装配置

    前言 经过前三篇文章的介绍,已经通过VMware安装了Hadoop的集群环境,当然,我相信安装的过程肯定遇到或多或少的问题,这些都需要自己解决,解决的过程就是学习的过程,本篇的来介绍几个Hadoop环 ...

  7. 大数据系列之分布式数据库HBase-1.2.4+Zookeeper 安装及增删改查实践

    之前介绍过关于HBase 0.9.8版本的部署及使用,本篇介绍下最新版本HBase1.2.4的部署及使用,有部分区别,详见如下: 1. 环境准备: 1.需要在Hadoop[hadoop-2.7.3]  ...

  8. 高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南

    原文:http://my.oschina.net/wstone/blog/365010#OSC_h3_13 (WJW)高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南 [X] ...

  9. Hadoop集群搭建-03编译安装hadoop

    Hadoop集群搭建-05安装配置YARN Hadoop集群搭建-04安装配置HDFS  Hadoop集群搭建-03编译安装hadoop Hadoop集群搭建-02安装配置Zookeeper Hado ...

随机推荐

  1. Message和handler传递对象

    Bundle可以传递对象,message又可以传递Bundle于是就可以利用buddle作为中间载体传递对象了 Message msg = Message.obtain();  Bundle b =  ...

  2. Premiere Pro & After Effects插件开发调试方法

    在给Adobe Premiere Pro(PR)和Adobe After Effects(AE)插件开发时,对于实时调试插件有着很强的需求.除了业务需求外,单步调试插件还能够摸清楚Plugin和Hos ...

  3. asp.net MVC 回顾 Html.ActionLink

    在asp.net MVc中想生成一个超链接有很多种方式,通过直接输入<a>.Html.ActionLink.Html.RouteLink等等,今天我们要阐述的就是Html.ActionLi ...

  4. C#知识点-委托

    一.什么是委托 委托和类一样,是一种用户自定义类型: 类表示的是数据和方法的集合,而委托则持有一个或多个方法: 二.委托的使用 1.声明委托类型 委托是类型,与类一样,委托类型必须在被用来创建变量以及 ...

  5. proxool+hsqldb数据库

    使用hsqldb数据库,开发环境eclipse,jdk8.0 Dsqldb数据库 1.下载包:hsqldb.jar 2.新建项目,复制到项目WebContent -> WEB -> INF ...

  6. 浅谈C# 多态的法力

    前言:我们都知道面向对象的三大特性:封装,继承,多态.封装和继承对于初学者而言比较好理解,但要理解多态,尤其是深入理解,初学者往往存在有很多困惑,为什么这样就可以?有时候感觉很不可思议,由此,面向对象 ...

  7. [ASP.NET Core] Middleware

    前言 本篇文章介绍ASP.NET Core里,用来处理HTTP封包的Middleware,为自己留个纪录也希望能帮助到有需要的开发人员. ASP.NET Core官网 结构 在ASP.NET Core ...

  8. Code First :使用Entity. Framework编程(5) ----转发 收藏

    第五章 对数据库映射使用默认规则与配置 到目前为止我们已经领略了Code First的默认规则与配置对属性.类间关系的影响.在这两个领域内,Code First不仅影响模型也影响数据库.在这一章,你将 ...

  9. jQuery弹出窗口浏览图片

    效果预览:http://keleyi.com/keleyi/phtml/jqtexiao/3.htm HTML文件代码: <!DOCTYPE HTML> <html> < ...

  10. 天津政府应急系统之GIS一张图(arcgis api for flex)讲解(十二)水情雨情模块

    config.xml文件的配置如下: <widget label="水情" icon="assets/images/water.png" config=& ...