ssh-copy-id -i hadoop5含义:

    节点hadoop4上执行ssh-copy-id -i hadoop5的含义是把hadoop4上的公钥id_rsa.pub的内容追加到hadoop5的授权文件authorized_keys中。

    zookeeper在hadoop2中实现的一个作用是HA的自动切换。
    journalnode是实现active和standby两个数据节点的数据同步。
    搭建手工切换的HA (比hadoop1集群搭建多了一个journalnode)

机器分配:

    namenode:hadoop4,hadoop5
    datanode:hadoop4,hadoop5,hadoop6
    journalnode:hadoop4,hadoop5,hadoop6,仅仅是为了实现HA,和集群没有任何关系,最少三个机器,奇数个
    resourcemanager:hadoop4
    nodemanager:hadoop4,hadoop5,hadoop6

1.1 配置文件:(hadoop-env.sh,core-site.xml,hdfs-site.xml,yarn-site.xml,mapred-site.xml)

  1.1.1 hadoop-env.sh 修改JAVA_HOME

export JAVA_HOME=/usr/local/jdk

  1.1.2 core-site.xml

<property>
<name>fs.defaultFS</name>
<value>hdfs://cluster1</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>

  1.1.3 hdsf-site.xml

<!-- 副本数 默认值3个 -->
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<!-- 配置有几个集群 -->
<property>
<name>dfs.nameservices</name>
<value>cluster1</value>
</property>
<!-- 指定集群cluster1具有哪些namenode节点,这里是逻辑名称,不重复即可 -->
<property>
<name>dfs.ha.namenodes.cluster1</name>
<value>hadoop101,hadoop102</value>
</property>
<!-- 指定hadoop101RPC的地址 -->
<property>
<name>dfs.namenode.rpc-address.cluster1.hadoop101</name>
<value>hadoop4:9000</value>
</property>
<!-- 指定hadoop101http的地址 -->
<property>
<name>dfs.namenode.http-address.cluster1.hadoop101</name>
<value>hadoop4:50070</value>
</property>
<!-- 指定hadoop102RPC的地址 -->
<property>
<name>dfs.namenode.rpc-address.cluster1.hadoop102</name>
<value>hadoop5:9000</value>
</property>
<!-- 指定hadoop102http的地址 -->
<property>
<name>dfs.namenode.http-address.cluster1.hadoop102</name>
<value>hadoop5:50070</value>
</property>
<!-- 是否启用自动故障恢复,即namenode出故障时,是否自动切换到另一台namenode-->
<property>
<name>dfs.ha.automatic-failover.enabled.cluster1</name>
<value>false</value>
</property>
<!-- 指定cluster1的两个namenode共享edits文件目录时,使用journalnode集群信息 -->
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://hadoop4:8485;hadoop5:8485;hadoop6:8485/cluster1</value>
</property>
<!-- 指定journalnode集群在对namenode的目录进行共享时,自己存储数据的磁盘路径 -->
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/usr/local/hadoop/tmp/journal</value>
</property>
<!-- 需要namenode切换,使用ssh进行切换 -->
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<!-- 使用ssh进行故障切换,使用的密钥存储位置 -->
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property>
<!-- 指定cluster1出故障时,哪个实现类负责执行故障切换 -->
<property>
<name>dfs.client.failover.proxy.provider.cluster1</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>

hdsf-site.xml 配置

  1.1.4 yarn-site.xml

<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop4</value>
</property> <property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

  1.1.5 mapred-site.xml

     重命名mapred-site.xml.template 为mapred-site.xml
     mv mapred-site.xml.template mapred-site.xml

<!-- 指定mapreduce运行环境时yarn,和hadoop1不同的地 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

  1.1.6 slaves

hadoop4
hadoop5
hadoop6

  1.1.7 把hadoop4上的hadoop文件夹复制到hadoop5、hadoop6节点

直接复制:
scp -rq hadoop hadoop5:/usr/local/ r:是否强制覆盖 q:安静
也可以写一个脚本:
vi bcp.sh
#!/bin/sh
for((i=5;i<=6;i++));
do
scp -rq /usr/local/$1 hadoop$i:/usr/local/$2
echo "copy done at hadoop$i"
done
执行:
chmod u+x bcp.sh
bcp.sh hadoop .

1.2 启动journalnode集群

  在hadoop4、hadoop5、hadoop6上分别执行hadoop/sbin/hadoop-daemon.sh start journalnode

1.3 格式化namenode,启动namenode

  hadoop4上执行格式化:hadoop/bin/hdfs namenode -format
  hadoop4上执行 hadoop/sbin/hadoop-daemon.sh start namenode
  hadoop5上执行 hadoop/bin/hdfs namenode -bootstrapStandby
  hadoop5上执行 hadoop/sbin/hadoop-daemon.sh start namenode
  将hadoop4上standby状态的转换为active状态
  hadoop/bin/hdfs haadmin -failover --forceactive hadoop101 hadoop102 forceactive:将一个转成active,forcefence:将状态互换
  ll -h :查看文件大小

1.4 启动datanode

  在hadoop4上执行hadoop/sbin/hadoop-daemons.sh start datanode
  hadoop5格式化命令,实际上是把hadoop4上的fsimage和edits两个文件copy到hadoop5上

1.5 启动resourcemanager和nodemanager

  在hadoop4上执行hadoop/sbin/start-yarn.sh start resourcemanager
  和原来的集群相比多了一个HA,HA由我们的journalnode集群实现,

Hadoop2.2.0 手动切换HA环境搭建的更多相关文章

  1. Hadoop2.2.0 自动切换HA环境搭建

    自动切换的HA,比手动切换HA集群多了一个zookeeper集群 机器分配: zookeeper:hadoop4,hadoop5,hadoop6 namenode:hadoop4,hadoop5 da ...

  2. hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(4)SPARK 安装

    hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(4)SPARK 安装 一.依赖文件安装 1.1 JDK 参见博文:http://www.cnblogs.com/liugh ...

  3. hadoop-2.6.0集群开发环境配置

    hadoop-2.6.0集群开发环境配置 一.环境说明 1.1安装环境说明 本例中,操作系统为CentOS 6.6, JDK版本号为JDK 1.7,Hadoop版本号为Apache Hadoop 2. ...

  4. Windows Server 2003 IIS6.0+PHP5(FastCGI)+MySQL5环境搭建教程

    准备篇 一.环境说明: 操作系统:Windows Server 2003 SP2 32位 PHP版本:php 5.3.14(我用的php 5.3.10安装版) MySQL版本:MySQL5.5.25 ...

  5. Cocos2dx-3.0版本 从开发环境搭建(Win32)到项目移植Android平台过程详解

    作为重量级的跨平台开发的游戏引擎,Cocos2d-x在现今的手游开发领域占有重要地位.那么问题来了,作为Cocos2dx的学习者,它的可移植特性我们就需要掌握,要不然总觉得少一门技能.然而这个时候各种 ...

  6. Apache Spark1.1.0部署与开发环境搭建

    Spark是Apache公司推出的一种基于Hadoop Distributed File System(HDFS)的并行计算架构.与MapReduce不同,Spark并不局限于编写map和reduce ...

  7. Selenium win7+selenium2.0+python+JetBrains PyCharm环境搭建

    win7+selenium2.0+python+JetBrains PyCharm环境搭建 by:授客 QQ:1033553122 步骤1:下载python 担心最新版的支持不太好,这里我下载的是py ...

  8. SDL2.0的VS开发环境搭建

    SDL2.0的VS开发环境搭建 [前言] 我是用的是VS2012,VS的版本应该大致一样. [开发环境搭建] >>>SDL2.0开发环境配置:1.从www.libsdl.org 下载 ...

  9. (一)windows7下solr7.1.0默认jetty服务器环境搭建

    windows7下solr7.1.0默认jetty服务器环境搭建 1.下载solr solr7官网地址:http://lucene.apache.org/solr/ jdk8官网地址:http://w ...

随机推荐

  1. 利用SOLR搭建企业搜索平台 之——模式配置Schema.xml

    来源:http://blog.csdn.net/awj3584/article/details/16963525 schema.xml这个配置文件可以在你下载solr包的安装解压目录的\solr\ex ...

  2. selenium支付高版本的FireFox

    http://blog.csdn.net/pw_windgod/article/details/6537409 15:22:12.031 WARN - GET /selenium-server/dri ...

  3. FTP命令详解

    FTP的命令行格式为:ftp -v -d -i -n -g [主机IP或者主机名],其中 -v显示远程服务器的所有响应信息: -n限制ftp的自动登录,即不使用: .n etrc文件: -d使用调试方 ...

  4. Java中final、finally、finalize的区别

    简单区别: final用于声明属性,方法和类,分别表示属性不可交变,方法不可覆盖,类不可继承. finally是异常处理语句结构的一部分,表示总是执行. finalize是Object类的一个方法,在 ...

  5. Linux系统信息查看命令

    一.系统 # uname -a #查看内核/操作系统/CPU信息 # head -n 1 /etc/issue #查看操作系统版本 # cat /proc/cpuinfo #查看CPU信息 # hos ...

  6. 爬虫技术(四)-- 简单爬虫抓取示例(附c#代码)

    这是我的第一个爬虫代码...算是一份测试版的代码.大牛大神别喷... 通过给定一个初始的地址startPiont然后对网页进行捕捉,然后通过正则表达式对网址进行匹配. List<string&g ...

  7. 多线程操作(循环往listbox中添加数据)

    一.先造一个窗体,其中就开始按钮,暂停按钮,以及listbox文本框 二.当点击开始的时候,数据会无限的往listbox中加,为了防止卡住和提升效率,便造了一个新的线程来执行开始操作 namespac ...

  8. Qt Assistant介绍

    简介 Qt Assistant也就是我们常说的Qt助手,是一款用于呈现在线文档的工具. 简介 一分钟学会使用 Qt参考文档 Qt Assistant详解 命令行选项 工具窗口 文档窗口 工具栏 菜单 ...

  9. UVa 537 Artificial Intelligence?

    题目大意:输入一个字符串,根据物理公式P=U*I,已知其中两个量,求第三个量,结果保留两位小数.   Artificial Intelligence?  Physics teachers in hig ...

  10. LA 3177 长城守卫

    n为偶数的时候比较简单,就是相邻两个守卫的礼物和的最大值. 首先这是个下限,其次这个值也满足题目要求,所以这就是答案了. 当n为奇数的时候上限是守卫索要礼物的最大值的三倍. 这也很容易理解,比如n=5 ...