上一节把Centos的集群免密码ssh登陆搭建完成,这一节主要讲一下Hadoop的环境搭建。

Hadoop下载安装

  下载官网的Hadoop 2.4.1的软件包。http://hadoop.apache.org/,或在百度网盘进行下载。链接: http://pan.baidu.com/s/1gePE9O3 密码: unmt

  下载完以后将通过Xftp上传到服务器器上。我是放在/home/software目录下

[root@spark1 ~]# cd /home/software/
[root@spark1 software]# ls
hadoop-2.4.1-x64.tar.gz scala-2.11.8.tgz
[root@spark1 software]#

  然后解压放到/usr/lib目录下,并且重命名为hadoop,这里hadoop的配置和之前Scala、Java差不多。

[root@spark1 software]# tar -zxf hadoop-2.4.1-x64.tar.gz    //解压
[root@spark1 software]# mv hadoop-2.4.1-x64 /usr/lib/hadoop //重命名 [root@spark1 software]# cd /usr/lib //编辑环境变量
[root@spark1 lib]# vi ~/.bashrc//添加到最后两行 export HADOOP_HOME=/usr/lib/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin //保存退出,是环境变量生效
[root@spark1 lib]# source /etc/profile

Hadoop配置文件修改

  然后我们进入hadoop目录,对hadoop的配置文件进行修改。

[root@spark1 etc]# cd hadoop/
[root@spark1 hadoop]# cd etc/
[root@spark1 etc]# cd hadoop/
  • 修改core-site.xml
[root@spark1 hadoop]# vi core-site.xml

  设置hdfs对外的端口,在<configuration>里添加

<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://spark1:9000</value>
</property>
</configuration>

  保存退出。

  • 修改hdfs-site.xml
[root@spark1 hadoop]# vi hdfs-site.xml

  设置集群的节点数3,hdfs的目录。

<configuration>

<property>
<name>dfs.name.dir</name>
<value>/usr/lib/data/namenode</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/lib/data/datanode</value>
</property>
<property>
<name>dfs.temp.dir</name>
<value>/usr/lib/data/temp</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property> </configuration>

  保存退出,根据上面的配置路径新建data目录。

[root@spark1 lib]# cd /usr/lib
[root@spark1 lib]# mkdir data
  • 修改mapred-site.xml.template
[root@spark1 hadoop]# vi mapred-site.xml.template

  设置MapReduce运行在yarn上,在<configuration>里添加

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

  保存退出。

  • 修改yarn-site.xml
[root@spark1 hadoop]# vi yarn-site.xml

  在<configuration>里添加

<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>spark1:8088</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property> 

  保存退出。

  • 修改slaves
[root@spark1 hadoop]# vi slaves
spark1
spark2
spark3

  保存退出,全部配置文件完成,是文件生效。

[root@spark1 hadoop]# source ~/.bashrc

为集群三台服务器全部配置Hadoop配置

  将spark1上的配置文件拷贝到spark2和spark3上。

[root@spark1 hadoop]# cd /usr/lib
[root@spark1 lib]# scp -r hadoop root@spark2:/usr/lib/

  拷贝完成后别忘了在spark2和spark3上创建/usr/lib目录上的data文件夹,/etc/profile文件也要都修改,改完别忘了另外两台服务器生效。

[root@spark2 lib]# source ~/.bashrc 

  都完成之后我们回到spark1服务器上。

  • 格式化namenode
[root@spark1 lib]# hdfs namenode -format
  • 启动hdfs集群,在spark1上启动namenode、secondaryNameNode、datanode,在spark2、spark3上启动datanode
[root@spark1 lib]# start-dfs.sh

  按提示一路操作下来,完成后输入命令查看spark1是否OK

[root@spark1 lib]# jps

  你可以在spark2、spark3下分别输入命令jps查看datanode是否启动。

  完成后你可以在本地打开chrome输入:http://[spark1的外网ip]:50070。出现如下界面

启动Yarn集群

  在spark1上执行命令

[root@spark1 lib]# start-yarn.sh

[root@spark1 lib]# jps

  发现启动了ResourceManager和NodeManager,同时spark2和spark3上也会出现NodeManager。

  完成后你可以在本地打开chrome输入:http://[spark1的外网ip]:8088。出现如下界面(如果未出现该界面,说明之前yarn-site.xml文件里的地址没有配外网ip,可直接修改webapp.address[外网ip:8088])

  至此hadoop集群搭建完毕!

  如有配置问题也可参考:http://blog.csdn.net/greensurfer/article/details/39450369

Spark入门到精通--(第八节)环境搭建(Hadoop搭建)的更多相关文章

  1. Spark入门到精通--(第一节)Spark的前世今生

    最近由于公司慢慢往spark方面开始转型,本人也开始学习,今后陆续会更新一些spark学习的新的体会,希望能够和大家一起分享和进步. Spark是什么? Apache Spark™ is a fast ...

  2. Spark入门到精通--(第九节)环境搭建(Hive搭建)

    上一节搭建完了Hadoop集群,这一节我们来搭建Hive集群,主要是后面的Spark SQL要用到Hive的环境. Hive下载安装 下载Hive 0.13的软件包,可以在百度网盘进行下载.链接: h ...

  3. Spark入门到精通--(第七节)环境搭建(服务器搭建)

    Spark搭建集群比较繁琐,需要的内容比较多,这里主要从Centos.Hadoop.Hive.ZooKeeper.kafka的服务器环境搭建开始讲.其中Centos的搭建不具体说了,主要讲下集群的配置 ...

  4. Spark入门到精通--(第十节)环境搭建(ZooKeeper和kafka搭建)

    上一节搭建完了Hive,这一节我们来搭建ZooKeeper,主要是后面的kafka需要运行在上面. ZooKeeper下载和安装 下载ZooKeeper 3.4.5软件包,可以在百度网盘进行下载.链接 ...

  5. Spark入门到精通--(外传)Cloudera CDH5.5.4搭建

    http://www.mamicode.com/info-detail-601202.html continue...

  6. Spark入门到精通--(第二节)Scala编程详解基础语法

    Scala是什么? Scala是以实现scaleable language为初衷设计出来的一门语言.官方中,称它是object-oriented language和functional languag ...

  7. spark入门到精通(后续开始学习)

    早几年国内外研究者和业界比较关注的是在 Hadoop 平台上的并行化算法设计.然而, HadoopMapReduce 平台由于网络和磁盘读写开销大,难以高效地实现需要大量迭代计算的机器学习并行化算法. ...

  8. Spark修炼之道(进阶篇)——Spark入门到精通:第九节 Spark SQL执行流程解析

    1.总体执行流程 使用下列代码对SparkSQL流程进行分析.让大家明确LogicalPlan的几种状态,理解SparkSQL总体执行流程 // sc is an existing SparkCont ...

  9. NHibernate从入门到精通系列——NHibernate环境与结构体系

    内容摘要 NHibernate的开发环境 NHibernate的结构体系 NHibernate的配置 一.NHibernate的开发环境 NHibernate的英文官方网站为:http://nhfor ...

随机推荐

  1. JavaScript读取对象属性遇到的问题

    JavaScript中对于对象的属性存取方式有两种:“.”操作和[]操作. “.”操作属性名通常直接写,[]操作中属性的名字通常要加引号, 而当需要读取的对象属性名是一个变量的时候,一般使用[]操作, ...

  2. PHP迭代器:Iterator和IteratorAggregate

    使用迭代模式遍历所有的对象的时候,都必须实现Traversable(遍历)接口.但是Traversable是一个内部的类,只有用c语言编写的类才可以实现Traversable实现.如果我们在自定义的 ...

  3. 【微信小程序】 wx:if 与 hidden(隐藏元素)区别

    wx:if 与 hidden 都可以控制微信小程序中元素的显示与否. 区别: wx:if 是遇 true 显示,hidden 是遇 false 显示. wx:if 在隐藏的时候不渲染,而 hidden ...

  4. jquery 第三章

    1.回顾$(document).ready(function(){    })$(function(){    }) ID选择器.类选择器.元素选择器层次选择器:空格(上文下:tr td{})属性过滤 ...

  5. Java Spring Boot VS .NetCore (一)来一个简单的 Hello World

    系列文章 Java Spring Boot VS .NetCore (一)来一个简单的 Hello World Java Spring Boot VS .NetCore (二)实现一个过滤器Filte ...

  6. 安装 Tensorflow

    环境:Ubuntu 16.04  64bit 1.    安装Anaconda Anaconda 是 Python 的一个科学计算发行版,内置了数百个Python经常会使用的库,也包括了许多机器学习和 ...

  7. Kubernetes 学习1 k8s架构概述

    一.概述 1.意思:舵手,飞行员 2.特点 a.自动装箱,自我修复,水平扩展,服务发现和负载均衡,自动发布和回滚. b.密钥和配置管理,存储编排,批量处理执行. 二.架构术语 1.集群 master( ...

  8. Excel—单元格引用

    EXCEL的引用有3种:相对引用.绝对引用.混合引用 相对引用.绝对引用比较简单,就是要么拖拽后变,要么拖拽后不变 混合引用有点难度,凡是需要向右拖拽再向下拖拽的记住一定是混合引用 要将拖拽后依然不变 ...

  9. IntelliJ IDEA 中的Java程序目录结构

    --src 应用程序源代码与测试代码的根目录 --main 应用程序代码的源目录 --java 源代码 --resources 项目用到的资源文件 --test 测试程序代码的源目录 --java 测 ...

  10. Android键盘显示和隐藏

    一.不自动弹出键盘: 带有EditText控件的在第一次显示的时候会自动获得focus,并弹出键盘,如果不想自动弹出键盘,有两种方法: 方法一:在mainfest文件中把对应的activity设置 a ...