简介:

HDFS High Availability Using the Quorum Journal Manager

Hadoop 2.x 中,HDFS 组件有三个角色:NameNode、DataNode、Secondary NameNode

1、NameNode

保存着 HDFS 的元数据信息,包括命名空间、块信息等。

维护着两种文件:fsimage、edit logs

2、DataNode

保存着 HDFS 的数据信息。

3、Secondary NameNode

负责合并 edit logs 到 fsimage。

# NameNode 会将元数据信息 fsimage 加载到内存中,供 DataNode 使用,将每次的修改保存在 edit logs 中。
# 每次 NameNode 重启时,将 edit logs 合并到 fsimage 中。
# 然而生产环境中 NameNode 很少重启,这就导致 edit logs 文件无限变大,当重启 NameNode 时,合并时间变长、启动时间变长。

# Secondary NameNode 负责定期将 edit logs 合并到 fsimage 然后同步给 NameNode,避免上述问题。

Hadoop 2.x 默认情况下,整个集群只有一台服务器充当 NameNode 角色,如果 NameNode 宕机,则 HDFS 及所有依赖 HDFS 的组件都无法访问。

由此可见 NameNode 的重要性,所以需要给 NameNode 做 HA !

  角色分配如下:

  192.168.1.25 master.hadoop      (NameNode Active 、ZKFC)
192.168.1.26 backup.hadoop (NameNode Standby、ZKFC)
192.168.1.27 datanode01.hadoop (DataNode、ZooKeeper Server、JournalNode)
192.168.1.28 datanode02.hadoop (DataNode、ZooKeeper Server、JournalNode)
192.168.1.29 datanode03.hadoop (DataNode、ZooKeeper Server、JournalNode)

一、搭建 Hadoop 集群

文档链接:http://www.cnblogs.com/wangxiaoqiangs/p/6700717.html

# 停止集群 sh sbin/stop-all.sh

二、搭建 ZooKeeper 集群

文档链接:http://www.cnblogs.com/wangxiaoqiangs/p/6809065.html

shell > ansible datanode -m shell -a '/usr/local/zookeeper-3.4.10/bin/zkServer.sh status'
datanode02.hadoop | SUCCESS | rc= >>
Mode: followerZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper-3.4./bin/../conf/zoo.cfg datanode03.hadoop | SUCCESS | rc= >>
Mode: leaderZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper-3.4./bin/../conf/zoo.cfg datanode01.hadoop | SUCCESS | rc= >>
Mode: followerZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper-3.4./bin/../conf/zoo.cfg shell > sh bin/zkCli.sh -server 192.168.1.27:,192.168.1.28:,192.168.1.29: [zk: 192.168.1.27:,192.168.1.28:,192.168.1.29:(CONNECTED) ] ls /
[zookeeper]

# 验证集群状态

三、配置 HDFS NameNode HA

1、修改 core-site.xml

shell > vim etc/hadoop/core-site.xml

<configuration>

    <property>
<name>fs.defaultFS</name>
<value>hdfs://myhdfs</value>
</property> <property>
<name>hadoop.tmp.dir</name>
<value>file:///data/hadoop/tmp</value>
</property> <property>
<name>fs.trash.interval</name>
<value></value>
</property> <property>
<name>io.file.buffer.size</name>
<value></value>
</property> <property>
<name>ha.zookeeper.quorum</name>
<value>192.168.1.27:,192.168.1.28:,192.168.1.29:</value>
</property> <property>
<name>ha.zookeeper.session-timeout.ms</name>
<value></value>
</property> </configuration>

# fs.defaultFS 指定的不再是某台 NameNode 的地址,是一个逻辑名称 ( hdfs-site.xml 文件中定义 )
# ha.zookeeper.quorum 指定 ZooKeeper Server 地址
# ha.zookeeper.session-timeout NameNode 与 ZooKeeper Server 超时时间,超时会发生主备切换

2、修改 hdfs-site.xml

shell > vim etc/hadoop/hdfs-site.xml

<configuration>

    <property>
<name>dfs.blocksize</name>
<value></value>
</property> <property>
<name>dfs.replication</name>
<value></value>
</property> <property>
<name>dfs.namenode.name.dir</name>
<value>file:///data/dfs/nn</value>
</property> <property>
<name>dfs.namenode.checkpoint.dir</name>
<value>file:///data/dfs/sn</value>
</property> <property>
<name>dfs.datanode.data.dir</name>
<value>file:///data/dfs/dn</value>
</property> <property>
<name>dfs.namenode.handler.count</name>
<value></value>
</property> <property>
<name>dfs.nameservices</name>
<value>myhdfs</value>
</property> <property>
<name>dfs.ha.namenodes.myhdfs</name>
<value>nn1,nn2</value>
</property> <property>
<name>dfs.namenode.rpc-address.myhdfs.nn1</name>
<value>master.hadoop:</value>
</property> <property>
<name>dfs.namenode.rpc-address.myhdfs.nn2</name>
<value>backup.hadoop:</value>
</property> <property>
<name>dfs.namenode.http-address.myhdfs.nn1</name>
<value>master.hadoop:</value>
</property> <property>
<name>dfs.namenode.http-address.myhdfs.nn2</name>
<value>backup.hadoop:</value>
</property> <property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://192.168.1.27:8485;192.168.1.28:8485;192.168.1.29:8485/journal</value>
</property> <property>
<name>dfs.client.failover.proxy.provider.myhdfs</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property> <property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property> <property>
<name>dfs.journalnode.edits.dir</name>
<value>/data/dfs/journal</value>
</property> <property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property> <property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/home/hadoop/.ssh/id_rsa</value>
</property> <property>
<name>dfs.ha.fencing.ssh.connect-timeout</name>
<value></value>
</property> </configuration>

四、初始化 backup.hadoop

# 根据集群部署文档来做 ( 修改主机名、配置hosts、创建hadoop用户、密钥认证、java环境、修改/data目录权限等 )

# 密钥认证要与原 NameNode、DataNode 都做

五、同步配置文件

1、修改 HOSTS

shell > vim /etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
:: localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.1.25 master.hadoop
192.168.1.26 backup.hadoop
192.168.1.27 datanode01.hadoop
192.168.1.28 datanode02.hadoop
192.168.1.29 datanode03.hadoop

2、密钥认证

shell > ssh-copy-id -i ~/.ssh/id_rsa.pub "-p 22 root@backup.hadoop"

shell > su - hadoop

hadoop shell > ssh-copy-id -i ~/.ssh/id_rsa.pub "-p 22 hadoop@backup.hadoop"

3、同步配置文件

shell > ansible all -m synchronize -a 'src=/usr/local/hadoop-2.8.0 dest=/usr/local/'

六、初始化、启动 NameNode HA

1、初始化 zkfc

shell > su - hadoop

hadoop shell > hdfs zkfc -formatZK

INFO ha.ActiveStandbyElector: Successfully created /hadoop-ha/myhdfs in ZK.

2、启动 journalnode

hadoop shell > ansible datanode -m shell -a '/usr/local/hadoop-2.8.0/sbin/hadoop-daemon.sh start journalnode'

3、初始化 namenode,启动 NameNode

hadoop shell > hadoop namenode -format myhdfs

hadoop shell > sh /usr/local/hadoop-2.8./sbin/hadoop-daemon.sh start namenode

4、backup.hadoop 拷贝元数据、启动 NameNode

hadoop shell > hdfs namenode -bootstrapStandby  # 从 master.hadoop 拷贝 NameNode 元数据

hadoop shell > sh /usr/local/hadoop-2.8./sbin/hadoop-daemon.sh start namenode

5、master.hadoop、backup.hadoop 启动 zkfc

hadoop shell > sh /usr/local/hadoop-2.8./sbin/hadoop-daemon.sh start zkfc

6、启动 YARN

hadoop shell > sh /usr/local/hadoop-2.8./sbin/start-yarn.sh

6、启动 DataNode

hadoop shell > ansible datanode -m shell -a '/usr/local/hadoop-2.8.0/sbin/hadoop-daemon.sh start datanode'

# master.hadoop

 NameNode
ResourceManager
DFSZKFailoverController

# backup.hadoop

 NameNode
DFSZKFailoverController

# datanode.hadoop

 DataNode
NodeManager
JournalNode

七、验证 NameNode HA

# 访问 http://192.168.1.25:50070 显示 active
# 访问 http://192.168.1.26:50070 显示 standby

hadoop shell > kill   # 杀掉 master.hadoop 上的 NameNode

hadoop shell > tail -f /usr/local/hadoop-2.8./logs/hadoop-hadoop-zkfc-backup.hadoop.log  # backup.hadoop 监控 zkfc 日志

-- ::, INFO org.apache.hadoop.ha.ZKFailoverController: Trying to make NameNode at backup.hadoop/192.168.1.26: active...
-- ::, INFO org.apache.hadoop.ha.ZKFailoverController: Successfully transitioned NameNode at backup.hadoop/192.168.1.26: to active state

# 有待进一步完善

HDFS NameNode HA 部署文档的更多相关文章

  1. HP DL160 Gen9服务器集群部署文档

    HP DL160 Gen9服务器集群部署文档 硬件配置=======================================================Server        Memo ...

  2. hadoop2.6.0汇总:新增功能最新编译 32位、64位安装、源码包、API下载及部署文档

    相关内容: hadoop2.5.2汇总:新增功能最新编译 32位.64位安装.源码包.API.eclipse插件下载Hadoop2.5 Eclipse插件制作.连接集群视频.及hadoop-eclip ...

  3. Hadoop 部署文档

    Hadoop 部署文档 1 先决条件 2 下载二进制文件 3 修改配置文件 3.1 core-site.xml 3.2 hdfs-site.xml 3.3 mapred-site.xml 3.4 ya ...

  4. keepalived双机热备,安装部署文档

    keepalived双击热备,安装部署文档: 下载目录:/apps/keepalived-1.2.7.tar.gz 1:---> yum install -y make wget 2:---&g ...

  5. Flink 部署文档

    Flink 部署文档 1 先决条件 2 下载 Flink 二进制文件 3 配置 Flink 3.1 flink-conf.yaml 3.2 slaves 4 将配置好的 Flink 分发到其他节点 5 ...

  6. LVS+Heartbeat安装部署文档

    LVS+Heartbeat安装部署文档 发表回复 所需软件: ipvsadm-1.24-10.x86_64.rpmheartbeat-2.1.3-3.el5.centos.x86_64.rpmhear ...

  7. PPTP部署文档

    PPTP部署文档 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任.       欢迎加入:高级运维工程师之路 598432640 前言:这款VPN部署起来特别简单,想对OPENVON配 ...

  8. supervisor 部署文档

    supervisor 部署文档 supervisor 需要Python支持,如果不用系统的supervisor,单独安装python python 安装 #依赖 yum install python- ...

  9. centos6 Cacti部署文档

    centos6 Cacti部署文档 1.安装依赖 yum -y install mysql mysql-server mysql-devel httpd php php-pdo php-snmp ph ...

随机推荐

  1. 如何创建管理员权限的CMD命令提示符窗口

    最近在使用netstat -anob命令时提示 请求的操作需要提升. 总结了几种创建管理员权限的CMD命令行的方法. 创建临时管理员权限的CMD Win8系统: 按下windows徽标,直接输入cmd ...

  2. 5.2离线使用xadmin包

    把xadmin包放到项目目录下,便于修改xadmin中的代码. 首先解压下载好的 xadmin-django2.zip 压缩包,拷贝子文件夹中的xadmin文件夹,到项目中新建extra_apps文件 ...

  3. [爬虫] 学Scrapy,顺便把它的官方教程给爬下来

    想学爬虫主要是因为算法和数据是密切相关的,有数据之后可以玩更多有意思的事情,数据量大可以挖掘挖掘到更多的信息. 之前只会通过python中的request库来下载网页内容,再用BeautifulSou ...

  4. Linux 中同名进程的查杀

    长久一段时间没有做任何工作总结了,如果用工作忙来敷衍那是欺骗自己,承认这一段时间拒绝进步了. 在系统运维中,有许多同名进程需要kill是常有的事情, 数一下battle这个进程的数量 [root@HD ...

  5. Python 修饰符, 装饰符

    1, 看到@时候, 程序已经开始执行了. 所以@实际上是立即执行的 2, @后面的跟着函数名, 该函数(f1)是之前定义过的.  再后面跟着一个函数(f2), f2是f1的入口. 那么执行顺序是,  ...

  6. (精华)将json数组和对象转换成List和Map(小龙哥和牛徳鹤的对话)

    将java标准的数据结构ArrayList和HashMap转换成json对象和数组很简单 只需要JSONArray.fromObject(obj);或者JSONObject.fromObject(ob ...

  7. cratedb 集群搭建说明

    此为搭建说明,实际上搭建过es 集群的都是可以的,和es 基本一样 配置文件 crate.yaml 参考集群架构图 集群名称 cluster.name: my_cluster 每个node节点名称 如 ...

  8. poj3311 经典tsp问题

    题目的大概意思就是一个人到一些城市送披萨,要求找到一条路径可以遍历每个城市后返回出发点,而且路径距离最短.最后输出最短距离就可以. 注意:每个城市可反复訪问多次. 因为题中明白说了两个城市间的直接可达 ...

  9. js中setAttribute 的兼容性

    js中setAttribute 的兼容性class和className兼容方法: object.setAttribute("class","content") ...

  10. CentOS+Apache虚拟主机域名设置

    首先注释掉 DocumentRoot /var/www/html     <virtualhost 192.168.1.105>     DocumentRoot /home/wxwb   ...