扩展为HA需要注意的问题

原Namenode称为namenode1,新增的Namenode称为namenode2.

从namenode单节点扩展为HA模式官网上有详细的教程,下面是扩展过程中疏忽的地方。

  • namenode2部署后需要复制namenode1格式化好的数据,就是namenode1部署的时候,通过hdfs namenode -format生成的数据。

  • journalnode部署好后,也需要格式化数据。格式化方式为:journalnode启动之后,在namenode执行hdfs namenode -bootstrapStandby来初始化journalnode,namenode不能是在运行状态,否则会报数据被锁定的异常。

    然后执行hadoop/bin/hdfs haadmin -transitionToActive nn1手动吧nn1切换成active节点。

下面是简写的笔记,按照个人知识基础写的,建议部署过程参照官网。

HA 原理

hadoop可以通过nfs和quorum journal manager(QJM)实现。

通过QJM共享edit log。

当主节点挂了,备从edit log迅速成为主节点。

架构

HA 集群中有一个namenode是Active ,另一个是Standby

部署Standby的时候,把Active节点上格式化好的数据拷贝到Standby。

要布署HA,需要准备一下内容:

  • Namenode: 主节点和备节点。
  • JournalNode:JournalNode是轻量级的,所以JournalNode可以布署在其他的Hadoop机器上,比如job tracker或者yarn RecourceManager。注意:必须至少三个JournalNode,这种结构允许系统有一个节点故障。可以大于单台,但是要增加允许故障节点的数量,journalnode的数量必须时奇数。因为系统健康状况的最低标准为(n/2)+1 个。所以三个节点只允许一台挂掉,4个节点也允许1台挂掉。

HA配置

参数说明

hdfs-site.xml

dfs.nameservices 用于标识集群

  1. <property>
  2. <name>dfs.nameservices</name>
  3. <value>mycluster</value>
  4. </property>

dfs.ha.namenodes.[nameservice ID] 集群mycluster的namenode成员

  1. <property>
  2. <name>dfs.ha.namenodes.mycluster</name>
  3. <value>nn1,nn2</value>
  4. </property>

dfs.namenode.rpc-address.[nameservice ID].[name node ID]

  1. <property>
  2. <name>dfs.namenode.rpc-address.mycluster.nn1</name>
  3. <value>machine1.example.com:8020</value>
  4. </property>
  5. <property>
  6. <name>dfs.namenode.rpc-address.mycluster.nn2</name>
  7. <value>machine2.example.com:8020</value>
  8. </property>

dfs.namenode.http-address.[nameservice ID].[name node ID]

  1. <property>
  2. <name>dfs.namenode.http-address.mycluster.nn1</name>
  3. <value>machine1.example.com:50070</value>
  4. </property>
  5. <property>
  6. <name>dfs.namenode.http-address.mycluster.nn2</name>
  7. <value>machine2.example.com:50070</value>
  8. </property>

dfs.namenode.shared.edits.dir 配置edits共享地址,journalnode的地址。

mycluster是nameservice ID

  1. <property>
  2. <name>dfs.namenode.shared.edits.dir</name>
  3. <value>qjournal://node1.example.com:8485;node2.example.com:8485;node3.example.com:8485/mycluster</value>
  4. </property>

dfs.client.failover.proxy.provider.[nameservice ID] 客户端用来连接avtive namenode的类。

  1. <property>
  2. <name>dfs.client.failover.proxy.provider.mycluster</name>
  3. <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
  4. </property>

dfs.ha.fencing.methods 再故障转移时的一种保护机制。Hadoop可以使用shell和sshfence的方式。

sshfence参数远程连接到目标节点杀死进程。

  1. <property>
  2. <name>dfs.ha.fencing.methods</name>
  3. <value>sshfence</value>
  4. </property>
  5. <property>
  6. <name>dfs.ha.fencing.ssh.private-key-files</name>
  7. <value>/home/exampleuser/.ssh/id_rsa</value>
  8. </property>

shell 可以使用的变量

$target_host hostname of the node to be fenced
$target_port IPC port of the node to be fenced
$target_address the above two, combined as host:port
$target_nameserviceid the nameservice ID of the NN to be fenced
$target_namenodeid the namenode ID of the NN to be fenced
  1. <property>
  2. <name>dfs.ha.fencing.methods</name>
  3. <value>shell(/path/to/my/script.sh --nameservice=$target_nameserviceid $target_host:$target_port)</value>
  4. </property>

core-site.xml

  1. <property>
  2. <name>fs.defaultFS</name>
  3. <value>hdfs://mycluster</value>
  4. </property>

dfs.journalnode.edits.dir journalnode保存edits的路径

JournalNode的配置

  1. <property>
  2. <name>dfs.journalnode.edits.dir</name>
  3. <value>/path/to/journal/node/local/data</value>
  4. </property>

JournalNode

上面是配置,启动方式为:

hadoop-2.9.2/sbin/hadoop-daemon.sh --config /opt/hadoop-2.9.2/etc/hadoop --script hdfs start journalnode

journalnode启动之后在namenode执行hdfs namenode -bootstrapStandby来初始化journalnode

然后执行hadoop/bin/hdfs haadmin -transitionToActive nn1手动吧nn1切换成active节点。

namenode|secondarynamenode|datanode|journalnode|dfs|dfsadmin|fsck|balancer|zkfc|portmap|nfs3|dfsrouter

自动故障转移

上面的配置只能使用手动转移。

zookeeper布署

namenode

core-site.xml

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://ns1</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/opt/modules/App/hadoop-2.5.0/data/tmp</value>
  9. </property>
  10. <property>
  11. <name>hadoop.http.staticuser.user</name>
  12. <value>beifeng</value>
  13. </property>
  14. <property>
  15. <name>ha.zookeeper.quorum</name>
  16. <value>bigdata-01:2181,bigdata-02:2181,bigdata-03:2181</value>
  17. </property>
  18. </configuration>

hdfs-site.xml

  1. <configuration>
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>3</value>
  5. </property>
  6. property>
  7. <name>dfs.permissions.enabled</name>
  8. <value>false</value>
  9. </property>
  10. <property>
  11. <name>dfs.nameservices</name>
  12. <value>ns1</value>
  13. </property>
  14. <property>
  15. <name>dfs.blocksize</name>
  16. <value>134217728</value>
  17. </property>
  18. <property>
  19. <name>dfs.ha.namenodes.ns1</name>
  20. <value>nn1,nn2</value>
  21. </property>
  22. <!-- nn1的RPC通信地址,nn1所在地址 -->
  23. <property>
  24. <name>dfs.namenode.rpc-address.ns1.nn1</name>
  25. <value>bigdata-01:8020</value>
  26. </property>
  27. <!-- nn1的http通信地址,外部访问地址 -->
  28. <property>
  29. <name>dfs.namenode.http-address.ns1.nn1</name>
  30. <value>bigdata-01:50070</value>
  31. </property>
  32. <!-- nn2的RPC通信地址,nn2所在地址 -->
  33. <property>
  34. <name>dfs.namenode.rpc-address.ns1.nn2</name>
  35. <value>bigdata-02:8020</value>
  36. </property>
  37. <!-- nn2的http通信地址,外部访问地址 -->
  38. <property>
  39. <name>dfs.namenode.http-address.ns1.nn2</name>
  40. <value>bigdata-02:50070</value>
  41. </property>
  42. <!-- 指定NameNode的元数据在JournalNode日志上的存放位置(一般和zookeeper部署在一起) -->
  43. <property>
  44. <name>dfs.namenode.shared.edits.dir</name>
  45. <value>qjournal://bigdata-01:8485;bigdata-02:8485;bigdata-03:8485/ns1</value>
  46. </property>
  47. <!-- 指定JournalNode在本地磁盘存放数据的位置 -->
  48. <property>
  49. <name>dfs.journalnode.edits.dir</name>
  50. <value>/opt/modules/App/hadoop-2.5.0/data/journal</value>
  51. </property>
  52. <!--客户端通过代理访问namenode,访问文件系统,HDFS 客户端与Active 节点通信的Java 类,使用其确定Active 节点是否活跃 -->
  53. <property>
  54. <name>dfs.client.failover.proxy.provider.ns1</name>
  55. <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
  56. </property>
  57. <!--这是配置自动切换的方法,有多种使用方法,具体可以看官网,在文末会给地址,这里是远程登录杀死的方法 -->
  58. <property>
  59. <name>dfs.ha.fencing.methods</name>
  60. <value>sshfence</value> ----这个参数的值可以有多种,你也可以换成shell(/bin/true)试试,也是可以的,这个脚本do nothing 返回0
  61. </property>
  62. <!-- 这个是使用sshfence隔离机制时才需要配置ssh免登陆 -->
  63. <property>
  64. <name>dfs.ha.fencing.ssh.private-key-files</name>
  65. <value>/home/beifeng/.ssh/id_rsa</value>
  66. </property>
  67. <!-- 配置sshfence隔离机制超时时间,这个属性同上,如果你是用脚本的方法切换,这个应该是可以不配置的 -->
  68. <property>
  69. <name>dfs.ha.fencing.ssh.connect-timeout</name>
  70. <value>30000</value>
  71. </property>
  72. <!-- 这个是开启自动故障转移,如果你没有自动故障转移,这个可以先不配 -->
  73. <property>
  74. <name>dfs.ha.automatic-failover.enabled</name>
  75. <value>true</value>
  76. </property>
  77. </configuration>

mapred-site.xml

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>mapreduce.jobhistory.address</name>
  8. <value>bigdata-01:10020</value>
  9. </property>
  10. <property>
  11. <name>mapreduce.jobhistory.webapp.address</name>
  12. <value>bigdata-01:19888</value>
  13. </property>
  14. </configuration>

yarn-site.xml

  1. <configuration>
  2. <property>
  3. <name>yarn.nodemanager.aux-services</name>
  4. <value>mapreduce_shuffle</value>
  5. </property>
  6. <property>
  7. <name>yarn.resourcemanager.hostname</name>
  8. <value>bigdata-03</value>
  9. </property>
  10. <property>
  11. <name>yarn.log-aggregation-enable</name>
  12. <value>true</value>
  13. </property>
  14. <property>
  15. <name>yarn.log-aggregation.retain-seconds</name>
  16. <value>106800</value>
  17. </property>
  18. </configuration>

HDFS的namenode从单节点扩展为HA需要注意的问题的更多相关文章

  1. HDFS环境搭建(单节点配置)

    [参考文章]:hadoop集群搭建(hdfs) 1. Hadoop下载 官网下载地址: https://hadoop.apache.org/releases.html,进入官网根据自己需要下载具体的安 ...

  2. 二、hdfs单节点安装

    一.准备环境 在配置hdfs之前,我们需要先安装好hadoop的配置,本文主要讲述hdfs单节点的安装配置. hadoop的单节点安装配置请参考:https://www.cnblogs.com/lay ...

  3. 【大数据系列】hadoop单节点安装官方文档翻译

    Hadoop: Setting up a Single Node Cluster. HADOOP:建立单节点集群 Purpose Prerequisites Supported Platforms R ...

  4. Centos7安装 Hadoop(单节点)

    1.Hadoop简介 Hadoop是一个由Apache基金会所开发的开源分布式系统基础框架,使用Java开发,是处理大规模数据的软件平台. Hadoop可以从单一节点扩展到上千节点.用户可以在不了解分 ...

  5. Hbase入门教程--单节点伪分布式模式的安装与使用

    Hbase入门简介 HBase是一个分布式的.面向列的开源数据库,该技术来源于 FayChang 所撰写的Google论文"Bigtable:一个结构化数据的分布式存储系统".就像 ...

  6. 单节点部署Hadoop教程

    搭建HDFS 增加主机名 我这里仅仅增加了master主机名 [root@10 /xinghl/hadoop/bin]$ cat /etc/hosts 127.0.0.1 localhost 10.0 ...

  7. Hadoop 2.6.4单节点集群配置

    1.安装配置步骤 # wget http://download.oracle.com/otn-pub/java/jdk/8u91-b14/jdk-8u91-linux-x64.rpm # rpm -i ...

  8. Hadoop介绍及最新稳定版Hadoop 2.4.1下载地址及单节点安装

     Hadoop介绍 Hadoop是一个能对大量数据进行分布式处理的软件框架.其基本的组成包括hdfs分布式文件系统和可以运行在hdfs文件系统上的MapReduce编程模型,以及基于hdfs和MapR ...

  9. hadoop2.7【单节点】单机、伪分布、分布式安装指导

    问题导读 1.从本文部署实际部署,总结本地模式.伪分布.分布式的区别是什么?2.单机是否是伪分布?3.本地模式是否可以运行mapreduce? 来源:about云 http://www.aboutyu ...

随机推荐

  1. #5 Python变量与输入输出

    前言 学习一门编程语言,最基本的无非不过学习其变量规则.条件语句.循环语句和函数,接下来的几节将开始记录这些基本的语法,本节主要记录变量规则! 一.Python输入输出 在说Python变量之前,先补 ...

  2. FFmpeg编解码处理4-音频编码

    本文为作者原创,转载请注明出处:https://www.cnblogs.com/leisure_chn/p/10584948.html FFmpeg编解码处理系列笔记: [0]. FFmpeg时间戳详 ...

  3. Apollo 3 定时/长轮询拉取配置的设计

    前言 如上图所示,Apollo portal 更新配置后,进行轮询的客户端获取更新通知,然后再调用接口获取最新配置.不仅仅只有轮询,还有定时更新(默认 5 分钟一次).目的就是让客户端能够稳定的获取到 ...

  4. C#基础知识回顾-- 属性与字段

    今天在公交车上,突然想属性和字段到底有什么区别?很多字段属性都存在 get{}和set{} 和普通的变量没什么区别(可读可写) 我就感觉属性就是给字段一个多的选择方式,有的字段是不允许更改的.. 刚写 ...

  5. csharp: Setting the value of properties reflection

    using System; using System.Collections.Generic; using System.ComponentModel; using System.Data; usin ...

  6. c# 生成自定义图片

    using System.Drawing; using System.IO; using System.Drawing.Imaging; using System; namespace treads ...

  7. Java--实现单点登录

    1 什么是单点登陆 单点登录(Single Sign On),简称为 SSO,是目前比较流行的企业业务整合的解决方案之一.SSO的定义是在多个应用系统中,用户只需要登录一次就可以访问所有相互信任的应用 ...

  8. Flask 中的 特殊装饰器before_request/after_request

    before_request :在请求收到之前绑定一个函数做一些事情. after_request: 每一个请求之后绑定一个函数,如果请求没有异常. teardown_request: 每一个请求之后 ...

  9. array.js

    // “最后加” concat 连接两个或更多的数组,并返回结果. var a = ['a','b','c']; var b = ['x','y','z']; var c = a.concat(b,t ...

  10. css实现照片上传的加号框

    css实现照片上传的加号框