三台虚拟机,IP地址通过路由器静态DHCP分配 (这样就无需设置host了)。
三台机器信息如下 - 
    1. hadoop-a: 192.168.0.20  #master
    2. hadoop-b: 192.168.0.21  #slave
    3. hadoop-c: 192.168.0.22  #slave
CenOS 7.0, Hadoop 2.6.0
1. 设置ssh无密码登陆(略)#可参考课程PPT或者 http://my.oschina.net/u/1169607/blog/175899
2. 安装JDK(略)#CentOS7.0 带的OpenJDK版本是1.7,已经可用,不用另外安装。 #export
JAVA_HOME=/usr/lib/jvm/java  
3. 安装相关软件:yum install maven svn ncurses-devel
gcc* lzo-devel zlib-devel autoconf automake libtool cmake
openssl-devel  (三台机器均安装)  //如果安装的是binary,则无需安装这些
4. 关闭防火墙 (三台机器全部关闭)
# systemctl status firewalld.service  --查看防火墙状态# systemctl stop firewalld.service    --关闭防火墙# systemctl disable firewalld.service --永久关闭防火墙
-------- 以下操作是在Master机上面进行的 ---------
5. 下载解压Hadoop 2.6.0个人目录下面 http://apache.fayea.com/hadoop/c
... hadoop-2.6.0.tar.gz
    
6. 创建目录,切换到刚解压的HADOOP目录
$ mkdir -p dfs/name
$ mkdir -p dfs/data
$ mkdir -p tmp
$ cd etc/hadoop

$vim slaves 
hadoop-b
hadoop-c

7. 修改hadoop-env.sh和yarn-env.sh 
$ vim hadoop-env.sh / vim yarn-env.sh
export export JAVA_HOME=/usr/lib/jvm/java

8. 修改core-site.xml文件
<configuration>
        <property>
               
<name>fs.defaultFS</name>
               
<value>hdfs://hadoop-a:9000</value>
        </property>
        <property>
               
<name>io.file.buffer.size</name>
               
<value>131702</value>
        </property>
        <property>
               
<name>hadoop.tmp.dir</name>
               
<value>file:/home/oliver/hadoop-2.6.0/tmp</value>
        </property>
        <property>
               
<name>hadoop.proxyuser.hadoop.hosts</name>
               
<value>*</value>
        </property>
        <property>
               
<name>hadoop.proxyuser.hadoop.groups</name>
               
<value>*</value>
        </property>
</configuration>

9. 修改hdfs-site.xml文件
<configuration>
        <property>
               
<name>dfs.namenode.name.dir</name>
               
<value>:/home/oliver/hadoop-2.6.0/dfs/name</value>
        </property>
        <property>
               
<name>dfs.datanode.data.dir</name>
                <value>:/home/oliver/hadoop-2.6.0/dfs/data</value>
        </property>
        <property>
               
<name>dfs.replication</name>
               
<value>2</value>
        </property>
        <property>
               
<name>dfs.namenode.secondary.http-address</name>
               
<value>hadoop-a:9001</value>
        </property>
        <property>
               
<name>dfs.webhdfs.enabled</name>
               
<value>true</value>
        </property>
</configuration>
10. 修改修改mapred-site.xml文件
<configuration>
        <property>
               
<name>mapreduce.framework.name</name>
               
<value>yarn</value>
        </property>
        <property>
               
<name>mapreduce.jobhistory.address</name>
               
<value>hadoop-a:10020</value>
        </property>
        <property>
               
<name>mapreduce.jobhistory.webapp.address</name>
               
<value>hadoop-a:19888</value>
        </property>
</configuration>
11. 修改yarn-site.xml文件
<configuration>
        <property>
               
<name>yarn.nodemanager.aux-services</name>
               
<value>mapreduce_shuffle</value>
        </property>
        <property>
               
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
               
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>
               
<name>yarn.resourcemanager.address</name>
               
<value>hadoop-a:8032</value>
        </property>
        <property>
               
<name>yarn.resourcemanager.scheduler.address</name>
               
<value>hadoop-a:8030</value>
        </property>
        <property>
               
<name>yarn.resourcemanager.resource-tracker.address</name>
               
<value>hadoop-a:8031</value>
        </property>
        <property>
               
<name>yarn.resourcemanager.admin.address</name>
               
<value>hadoop-a:8033</value>
        </property>
        <property>
               
<name>yarn.resourcemanager.webapp.address</name>
               
<value>hadoop-a:8088</value>
        </property>
        <property>
               
<name>yarn.nodemanager.resource.memory-mb</name>
               
<value>768</value>
        </property>
</configuration>

12. 分发master机器上的hadoop文件到slave机器上
13. 格式化namenode (Master机器上面)
$ ./bin/hdfs namenode -format
14. 启动hdfs (Master机器上面)
$ ./sbin/start-dfs.sh$ ./sbin/start-yarn.sh
15. 检查启动情况
http://192.168.0.20:8088
 http://192.168.0.20:9001

CentOS7.0分布式安装HADOOP 2.6.0笔记-转载的的更多相关文章

  1. CentOS 6.5 伪分布式 安装 hadoop 2.6.0

    安装 jdk -openjdk* 检查安装:java -version 创建Hadoop用户,设置Hadoop用户使之可以免密码ssh到localhost su - hadoop ssh-keygen ...

  2. Hadoop-2.4.0分布式安装手册

    目录 目录 1 1. 前言 2 2. 部署 2 2.1. 机器列表 2 2.2. 主机名 2 2.2.1. 临时修改主机名 3 2.2.2. 永久修改主机名 3 2.3. 免密码登录范围 4 3. 约 ...

  3. Hadoop-2.4.0分布式安装手冊

    文件夹 文件夹 1 1. 前言 2 2. 部署 2 2.1. 机器列表 2 2.2. 主机名 2 2.2.1. 暂时改动主机名 3 2.2.2. 永久改动主机名 3 2.3. 免password登录范 ...

  4. 第二章 伪分布式安装hadoop hbase

    安装单机模式的hadoop无须配置,在这种方式下,hadoop被认为是一个单独的java进程,这种方式经常用来调试.所以我们讲下伪分布式安装hadoop. 我们继续上一章继续讲解,安装完先试试SSH装 ...

  5. Centos 7.0 下安装 Zabbix server 3.0服务器的安装及 监控主机的加入(1)

    一.本系列分为6部分 1.Centos 7.0 下安装 Zabbix server 3.0服务器的安装及 监控主机的加入 2.Centos 6.5 下安装 Zabbix server 3.0服务器的安 ...

  6. 指导手册02:伪分布式安装Hadoop(ubuntuLinux)

    指导手册02:伪分布式安装Hadoop(ubuntuLinux)   Part 1:安装及配置虚拟机 1.安装Linux. 1.安装Ubuntu1604 64位系统 2.设置语言,能输入中文 3.创建 ...

  7. MySQL8.0.20安装教程,MySQL8.0.20安装详细图文教程

    1.下载链接如下: MySQL8.0.20版本 https://dev.mysql.com/doc/relnotes/mysql/8.0/en/news-8-0-20.html 其他版本:MySQL8 ...

  8. Hadoop2.2.0分布式安装配置详解[2/3]

    前言 本文主要通过对hadoop2.2.0集群配置的过程加以梳理,所有的步骤都是通过自己实际测试.文档的结构也是根据自己的实际情况而定,同时也会加入自己在实际过程遇到的问题.搭建环境过程不重要,重要点 ...

  9. Hadoop2.2.0分布式安装配置详解[1/3]

    前言 在寒假前的一段时间,开始调研Hadoop2.2.0搭建过程,当时苦于没有机器,只是在3台笔记本上,简单跑通一些数据.一转眼一两个月过去了,有些东西对已经忘了.现在实验室申请下来了,分了10台机器 ...

随机推荐

  1. 注解 @RequestMapping

    通过RequestMapping注解可以定义不同的处理器映射规则. 1.URL路径映射 @RequestMapping(value="/item")或@RequestMapping ...

  2. cocos2dx arpg单机手游

    这只是一个DEMO. ARPG 单机手游, 个人DEMO. 支持剧情编辑, 支持气泡对话, 支持人物图像对话, 支持随时角色切换, 支持NPC跟随, 共同作战, 支持LUA扩展, 支持BUFF技能, ...

  3. 为SQL Server表中的列添加/修改/删除注释属性(sp_addextendedproperty、sp_updateextendedproperty、sp_dropextendedproperty)

    本篇基本完全参考:sql--sp_addextendedproperty和sp_updateextendedproperty (Transact-SQL) 三个存储过程用法一样,以sp_addexte ...

  4. 将[{},{}]转为dict

    经常遇到一种需求,需要把从数据库取出的数据,转为dict对象([{}, {},...]-->dict). rs = [{, , "name":"edf"} ...

  5. php函数应用场景

    截取文件后缀: $slen = strlen($suffix); substr($this->uri_string, -$slen) === $suffix 原理:截取倒数多少长度字符 判断多维 ...

  6. 数据库基本概念-oracle介绍

    甲骨文公司,全称甲骨文股份有限公司是全球最大的企业软件公司,总部位于美国加利福尼亚州的红木滩.甲骨文是继Microsoft及IBM后,全球收入第三多的软件公司.甲骨文公司1989年正式进入中国市场.重 ...

  7. Linux下glui 的安装,以及错误解决

    下载源文件: http://sourceforge.net/projects/glui/ 2. 解压源文件 3. 用terminal进入glui-2.36/src文件 4. make 5. make之 ...

  8. Python中使用中文

    python的中文问题一直是困扰新手的头疼问题,这篇文章将给你详细地讲解一下这方面的知识.当然,几乎可以确定的是,在将来的版本中,python会彻底解决此问题,不用我们这么麻烦了. 先来看看pytho ...

  9. python中的函数的参数和可变参数

    最近在搞python的过程中需要用到给函数传可变参数..所以去网上找前人的帖子学习了一下 为了尊重原作者,这里附上链接:http://www.cnblogs.com/tqsummer/archive/ ...

  10. UFLDL教程(六)之栈式自编码器

    第0步:初始化一些参数和常数   第1步:利用训练样本集训练第一个稀疏编码器   第2步:利用训练样本集训练第二个稀疏编码器   第3步:利用第二个稀疏编码器提取到的特征训练softmax回归模型   ...