1、Zookeeper安装

  1、解压 zookeeper 到安装目录中/opt/app/zookeeper 中。

  2、在安装目录下创建data和logs两个目录用于存储数据和日志:

      cd /opt/app/zookeeper-3.4.10
      mkdir dir_data
      mkdir dir_logs

  3、在conf目录下新建zoo.cfg文件,写入以下内容保存:

      tickTime=2000
      dataDir=/opt/app/zookeeper-3.4.10/dir_data
      dataLogDir=/opt/app/zookeeper-3.4.10/dir_logs
      clientPort=2181
      initLimit=5
      syncLimit=2
      server.1=s10:2888:3888 //s10,s11,s12是自己的ip
      server.2=s11:2888:3888
      server.3=s11:2888:3888

      注:分布式协调服务:s10,s11,s12

  4、在新建的dir_data下,新建一个myid文件,分配票数。

      s10 : echo '1' > /opt/app/zookeeper-3.4.10/dir_data/myid

      s11: echo '2' > /opt/app/zookeeper-3.4.10/dir_data/myid

      s12: echo '3' > /opt/app/zookeeper-3.4.10/dir_data/myid

  5、启动命令(bin目录下)

      ./zkServer.sh start
      ./zkServer.sh stop
      ./zkServer.sh restart
      ./zkServer.sh status

  注:当半数以上启动时,会每个节点查看状态都能得到其对应的角色。(s10,s11,s12)

2、HA安装

  1、安装HA之前,必须先安装zookeeper

  2、删除原来文件(要删除以前hadoop的残留文件)

    mkdir -p /opt/app/hadoop-2.7.2/journalnode       //创建共享存储系统的journalnode节点编辑日志存储路劲

    mkdir -p /opt/app/hadoop-2.7.2/namenode       //存储namenode的临时文件(不然会在tmp下面)
    mkdir -p /opt/app/hadoop-2.7.2/datanode       //存储datenode的临时文件(不然会在tmp下面)

    rm -rf /opt/app/hadoop-2.7.2/journalnode/*
    rm -rf /opt/app/hadoop-2.7.2/namenode/*
    rm -rf /opt/app/hadoop-2.7.2/datanode/*

    rm -rf /tmp/*                     //所有的都执行

    rm -rf /opt/app/hadoop-2.7.2/data/tmp/*

    rm -rf /opt/app/hadoop-2.7.2/logs/*

  3、更改配置文件core-site.xml

  1. <configuration>
  2.  
  3. <!--配置名称节点集群-->
  4.  
  5. <property>
  6.  
  7. <name>fs.defaultFS</name>
  8.  
  9. <value>hdfs://MyNNS</value>
  10.  
  11. </property>
  12.  
  13. <property>
  14.  
  15. <name>hadoop.tmp.dir</name>
  16.  
  17. <value>/opt/app/hadoop-2.7.2/data/tmp</value>
  18.  
  19. </property>
  20.  
  21. <!--配置zookeeper-->
  22.  
  23. <property>
  24.  
  25. <name>ha.zookeeper.quorum</name>
  26.  
  27. <value>192.168.40.10:2181,192.168.40.11:2181,192.168.40.12:2181</value>
  28.  
  29. </property>
  30.  
  31. </configuration>

  4、hdfs-site

  1. <configuration>
  2.  
  3. <!-- 配置集群中的集群名称 -->
  4.  
  5. <property>
  6.  
  7. <name>dfs.nameservices</name>
  8.  
  9. <value>MyNNS</value>
  10.  
  11. </property>
  12.  
  13. <!-- 配置名称集群中的名称节点-->
  14.  
  15. <property>
  16.  
  17. <name>dfs.ha.namenodes.MyNNS</name>
  18.  
  19. <value>nn1,nn2</value>
  20.  
  21. </property>
  22.  
  23. <!--配置nn1的主机位置与端口号 -->
  24.  
  25. <property>
  26.  
  27. <name>dfs.namenode.rpc-address.MyNNS.nn1</name>
  28.  
  29. <value>192.168.40.10:8020</value>
  30.  
  31. </property>
  32.  
  33. <!-- 配置nn2的主机名称端口号-->
  34.  
  35. <property>
  36.  
  37. <name>dfs.namenode.rpc-address.MyNNS.nn2</name>
  38.  
  39. <value>192.168.40.11:8020</value>
  40.  
  41. </property>
  42.  
  43. <!--配置nn1与nn2 web访问端口 -->
  44.  
  45. <property>
  46.  
  47. <name>dfs.namenode.http-address.MyNNS.nn1</name>
  48.  
  49. <value>192.168.40.10:50070</value>
  50. </property>
  51.  
  52. <property>
  53.  
  54. <name>dfs.namenode.http-address.MyNNS.nn2</name>
  55.  
  56. <value>192.168.40.11:50070</value>
  57.  
  58. </property>
  59.  
  60. <!--配置journalnode日志服务器主机位置 -->
  61.  
  62. <property>
  63.  
  64. <name>dfs.namenode.shared.edits.dir</name>
  65.  
  66. <value>qjournal://192.168.40.10:8485;192.168.40.11:8485;192.168.40.12:8485/MyNNS</value>
  67.  
  68. </property>
  69.  
  70. <!--配置journalnode 日志存储的地址 -->
  71.  
  72. <property>
  73.  
  74. <name>dfs.journalnode.edits.dir</name>
  75.  
  76. <value>/opt/app/hadoop-2.7.2/journalnode</value>
  77.  
  78. </property>
  79.  
  80. <!-- 配置HA的代理服务-->
  81.  
  82. <property>
  83.  
  84. <name>dfs.client.failover.proxy.provider.MyNNS</name>
  85.  
  86. <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
  87.  
  88. </property>
  89.  
  90. <!--配置SSH登录 -->
  91.  
  92. <property>
  93.  
  94. <name>dfs.ha.fencing.methods</name>
  95.  
  96. <value>sshfence</value>
  97.  
  98. </property>
  99.  
  100. <property>
  101.  
  102. <name>dfs.ha.fencing.ssh.private-key-files</name>
  103.  
  104. <value>/home/hadoop/.ssh/id_rsa</value>
  105.  
  106. </property>
  107.  
  108. <property>
  109.  
  110. <name>dfs.ha.fencing.ssh.connect-timeout</name>
  111.  
  112. <value>30000</value>
  113.  
  114. </property>
  115.  
  116. <!-- 开启自动故障转移功能-->
  117.  
  118. <property>
  119.  
  120. <name>dfs.ha.automatic-failover.enabled</name>
  121.  
  122. <value>true</value>
  123.  
  124. </property>
  125.  
  126. <property>
  127.  
  128. <name>dfs.permissions.enabled</name>
  129.  
  130. <value>false</value>
  131.  
  132. </property>
  133.  
  134. <!-- namenode临时文件存储目录-->
  135.  
  136. <property>
  137. <name>dfs.name.dir</name>
  138. <value>/opt/app/hadoop-2.7.2/namenode/</value>
  139. </property>
  140.  
  141. <!-- datanode临时文件存储目录-->
  142.  
  143. <property>
  144. <name>dfs.data.dir</name>
  145. <value>/opt/app/hadoop-2.7.2/datanode/</value>
  146. </property>
  147.  
  148. </configuration>

  5、格式化文件系统

    scp -r /opt/app/hadoop-2.7.2 s13:/opt/app/     //分发配置文件

    zkServer.sh start                //三台zk都必须先启动

    hadoop-daemon.sh start journalnode      //三台journalnode都必须先启动

    hadoop namenode -format         //格式化hdfs

    hdfs zkfc -formatZK             //初始化ZK

    hadoop-daemon.sh start namenode      //启动namenode(active节点上)

    hdfs namenode -bootstrapStandby     //同步到Standby节点上

    hadoop-daemon.sh start namenode    //Standby节点上开启namenode

    start-all.sh                //启动全部

    hdfs haadmin -getServiceState nn1 //查看nn1状态
    hdfs haadmin -getServiceState nn2 //查看nn1状态

  6、第二次开启就不需要这么费神了

    zkServer.sh start //三台zk都必须先启动
    start-all.sh //启动全部

2-Zookeeper、HA安装的更多相关文章

  1. 安装hadoop+zookeeper ha

    安装hadoop+zookeeper ha 前期工作配置好网络和主机名和关闭防火墙 chkconfig iptables off //关闭防火墙 1.安装好java并配置好相关变量 (/etc/pro ...

  2. spark HA 安装配置和使用(spark1.2-cdh5.3)

    安装环境如下: 操作系统:CentOs 6.6 Hadoop 版本:CDH-5.3.0 Spark 版本:1.2 集群5个节点 node01~05 node01~03 为worker. node04. ...

  3. zookeeper的安装(图文详解。。。来点击哦!)

    zookeeper的安装(图文详解...来点击哦!) 一.服务器的配置 三台服务器: 192.168.83.133   sunshine 192.168.83.134   sunshineMin 19 ...

  4. (原) 1.1 Zookeeper单机安装

    本文为原创文章,转载请注明出处,谢谢 zookeeper 单机安装配置 1.安装前准备 linux系统(此文环境为Centos6.5) Zookeeper安装包,官网https://zookeeper ...

  5. ZooKeeper的安装、配置、启动和使用(一)——单机模式

    ZooKeeper的安装.配置.启动和使用(一)——单机模式 ZooKeeper的安装非常简单,它的工作模式分为单机模式.集群模式和伪集群模式,本博客旨在总结ZooKeeper单机模式下如何安装.配置 ...

  6. ZooKeeper 的安装和配置---单机和集群

    如题本文介绍的是ZooKeeper 的安装和配置过程,此过程非常简单,关键是如何应用(将放在下节及相关节中介绍). 单机安装.配置: 安装非常简单,只要获取到 Zookeeper 的压缩包并解压到某个 ...

  7. JDK+Tomcat+Zookeeper+DubboAdmin安装教程

    JDK+Tomcat+Zookeeper+DubboAdmin安装教程 1. 安装内容: JDK 1.8.131 Tomcat 7.0.77 Zookeeper 3.4.9 Dubbo admin 2 ...

  8. Zookeeper的安装的配置

    详见:http://blog.yemou.net/article/query/info/tytfjhfascvhzxcyt192 安装和配置详解 本文介绍的 Zookeeper 是以 3.2.2 这个 ...

  9. Zookeeper的安装部署

    1.Zookeeper的安装部署 7.1 Zookeeper工作机制 7.1.1.Zookeeper集群角色 Zookeeper集群的角色:  Leader 和  follower (Observer ...

随机推荐

  1. Zookeeper命令行auth,digest

    一.auth auth:user:pwd:cdrwa digest:user:BASE64(SHA1(PWD)):cdrwa addauth digest user:pwd 增加用户和密码都是zhan ...

  2. NET设计模式 第二部分 创建型模式(5):原型模式(Prototype Pattern)

    原型模式(Prototype Pattern) ——.NET设计模式系列之六 Terrylee,2006年1月 概述 在软件系统中,有时候面临的产品类是动态变化的,而且这个产品类具有一定的等级结构.这 ...

  3. 【java】浅谈for循环

    for语法: for(初始化条件; 判断条件(bool型,不可缺省); 条件改变)// 初始化条件,条件改变可以是多条,eg for(x=1,y=1;x<4;x++,y++) { 执行的操作 } ...

  4. dom实例,模态框,全选,反选,取消

    <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8&quo ...

  5. 美剧黑名单的插曲《Jolene》

    网易上有Slowdown 版本.<Jolene>Dolly Parton

  6. MyEclipse+Tomcat配置

    一.Tomcat 1 Tomcat概述 Tomcat服务器由Apache提供,开源免费.由于Sun和其他公司参与到了Tomcat的开发中,所以最新的JSP/Servlet规范总是能在Tomcat中体现 ...

  7. g6 cavans

    { // 默认模式 default: [ 'dragNode', 'dragEdge', 'dragBlank', 'clickBlankClearActive', 'resizeEdge', 'cl ...

  8. 解决linux下node.js全局模块找不到的情况

    今天在在linux上用npm安装了pm2准备部署node项目,结果通过pm2命令启动项目的时候报pm2找不到,这很伤,以为pm2没有安装成功,但是在node安装目录下面的bin文件夹里面调用pm2却没 ...

  9. Foxmail Gmail Outlook

    三个邮件客户端都比较好,但是作为用户精力是非常有限地,必须优中选优. 我选outlook,非常值得拥有. 理由如下: (1)和office完美契合 (2)和生产环境完美契合 (3)免费 (4)良好地任 ...

  10. 云中树莓派(4):利用声音传感器控制Led灯

    云中树莓派(1):环境准备 云中树莓派(2):将传感器数据上传到AWS IoT 并利用Kibana进行展示 云中树莓派(3):通过 AWS IoT 控制树莓派上的Led 云中树莓派(4):利用声音传感 ...