一、应该先配置好zookeeper并成功启动,否则hbase无法启动

二、配置HBASE集群

1,配置hbase-env.sh,下面是最少配置项目

  1. [hadoop@zk1 conf]$ vim hbase-env.sh
  2.  
  3. export JAVA_HOME=/usr/java/jdk1.7.0_60
  4. export HBASE_HOME=/home/hadoop/hbase
  5.  
  6. export HBASE_OPTS="-XX:+UseConcMarkSweepGC"
  7.  
  8. XX:GCLogFileSize=512M"
  9.  
  10. XX:GCLogFileSize=512M"
  11.  
  12. export HBASE_MANAGES_ZK=false

2,配置hbase-site.xml,其中标注为默认值的项目都可以忽略

  1. [hadoop@zk1 conf]$ vim hbase-site.xml
  2.  
  3. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  4.  
  5. <configuration>
  6. <property>
  7. <name>hbase.rootdir</name>
  8. <value>hdfs://hbasecluster/hbase</value>
  9. </property>
  10. <property>
  11. <name>hbase.zookeeper.quorum</name>
  12. <value>zk1,zk2,zk3</value>
  13. </property>
  14. <property>
  15. <name>hbase.cluster.distributed</name>
  16. <value>true</value>
  17. </property>
  18.  
  19. <!-- above three parameters are the ones who must be defined within a true cluster environment -->
  20.  
  21. <property>
  22. <name>hbase.tmp.dir</name>
  23. <value>file:/tmp/hbase</value>
  24. </property>
  25.  
  26. <property>
  27. <name>hbase.master.port</name>
  28. <value>60000</value><!-- 60000 is the default value -->
  29. </property>
  30. <property>
  31. <name>hbase.master.info.port</name>
  32. <value>60010</value><!--60010 is the default value-->
  33. </property>
  34.  
  35. <property>
  36. <name>hbase.regionserver.port</name>
  37. <value>60020</value><!-- 60020 is the default value -->
  38. </property>
  39. <property>
  40. <name>hbase.regionserver.info.port</name>
  41. <value>60030</value><!--60030 is the default value-->
  42. </property>
  43.  
  44. <property>
  45. <name>zookeeper.session.timeout</name>
  46. <value>2000</value>
  47. <description>hbase daemon talk session with zookeeper timeout </description>
  48. </property>
  49. </configuration>

3,配置regionservers列表文件

  1. [hadoop@zk1 conf]$ vim regionservers
  2.  
  3. dn1
  4. dn2
  5. dn3
  6. dn4
  7. dn5
  8. dn6
  9. ~

配置完以上3项,通过scp 复制到其他运行hbase的r主机上,至此hbase已经可以启动,但是此时master只是启动一个,没有failover支持。

开启hbase master节点的failover特性很简单,继续第4项配置,其实只是要添加一个backup-masters的文件,写入master主机列表就行了。

4,配置master HA site backup文件

  1. [hadoop@zk1 conf]$ vim backup-masters
  2.  
  3. zk1
  4. zk2
  5. zk3
  6. ~
    "backup-masters" [新] 3L, 12C 已写入

再次scp分发配置,然后重新启动hbase集群,发现其他两个节点上HMaster页已经自动启动了。

  1. [hadoop@zk1 conf]$ start-hbase.sh
  2. starting master, logging to /home/hadoop/hbase/logs/hbase-hadoop-master-zk1.hadoop.software.yinghuan.com.out
  3. dn3: regionserver running as process 1964. Stop it first.
  4. dn6: regionserver running as process 1943. Stop it first.
  5. dn5: regionserver running as process 1996. Stop it first.
  6. dn4: regionserver running as process 1969. Stop it first.
  7. dn2: regionserver running as process 1942. Stop it first.
  8. dn1: starting regionserver, logging to /home/hadoop/hbase/logs/hbase-hadoop-regionserver-data1.hadoop.software.yinghuan.com.out
  9. zk1: master running as process 3641. Stop it first.
  10. zk2: starting master, logging to /home/hadoop/hbase/logs/hbase-hadoop-master-zk2.hadoop.software.yinghuan.com.out
  11. zk3: starting master, logging to /home/hadoop/hbase/logs/hbase-hadoop-master-zk3.hadoop.software.yinghuan.com.out

其中zk1节点有重复了导致zk1上的master启动了两次,从bakup-masters文件中移除就ok了。

通过tarball形式安装HBASE Cluster(CDH5.0.2)——HBASE 真分布式集群配置的更多相关文章

  1. CentOS6安装各种大数据软件 第四章:Hadoop分布式集群配置

    相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...

  2. WildFly 9.0.2+mod_cluster-1.3.1 集群配置

    一.配置背景 最近使用WildFly 9.0.2作为中间件开发系统,给客户不熟的时候需要使用集群来进行负载均衡,一开始想到是使用Nginx.但是只通过Nginx使用 ip_hash 模式没有做到ses ...

  3. hadoop-2.3.0-cdh5.1.0完全分布式集群配置HA配置

    一.安装前准备: 操作系统:CentOS 6.5 64位操作系统 环境:jdk1.7.0_45以上,本次采用jdk-7u55-linux-x64.tar.gz master01 10.10.2.57  ...

  4. hadoop-2.3.0-cdh5.1.0完全分布式集群配置及HA配置(待)

    一.安装前准备: 操作系统:CentOS 6.5 64位操作系统 环境:jdk1.7.0_45以上,本次采用jdk-7u55-linux-x64.tar.gz master01 10.10.2.57  ...

  5. Ambari安装之部署3个节点的HA分布式集群

    前期博客 Ambari安装之部署单节点集群 其实,按照这个步骤是一样的.只是按照好3个节点后,再做下HA即可. 部署3个节点的HA分布式集群 (1)添加机器 和添加服务的操作类似,如下图 之后的添加a ...

  6. Mac Hadoop2.6(CDH5.9.2)伪分布式集群安装

    操作系统: MAC OS X 一.准备 1. JDK 1.8 下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-dow ...

  7. CentOS6安装各种大数据软件 第六章:HBase分布式集群的配置

    相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...

  8. HBase 1.2.6 完全分布式集群安装部署详细过程

    Apache HBase 是一个高可靠性.高性能.面向列.可伸缩的分布式存储系统,是NoSQL数据库,基于Google Bigtable思想的开源实现,可在廉价的PC Server上搭建大规模结构化存 ...

  9. CentOS6安装各种大数据软件 第十章:Spark集群安装和部署

    相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...

随机推荐

  1. spacemacs怎样配置编辑器显示行号?

    spacemacs配置文件.spacemacs文件中查找dotspacemacs-line-numbers. 默认配置为: dotspacemacs-line-numbers nil 修改为(`rel ...

  2. [转]java按指定编码写入和读取文件内容的类

    读文件: BufferedReader 从字符输入流中读取文本,缓冲各个字符,从而提供字符.数组和行的高效读取. 可以指定缓冲区的大小,或者可使用默认的大小.大多数情况下,默认值就足够大了. 通常,R ...

  3. 【转】oracle CONNECT BY PRIOR叶子节点查找根节点

    SELECT TRANS_ID FROM TRANS_INST WHERE connect_by_isleaf=1 START WITH TRANS_ID =480242 CONNECT BY PRI ...

  4. JDBC插入数据超长时无法自动截断问题

    问题 JDBC操作MySQL数据库,当进行插入或更新操作的数据长度超过表字段的声明最大长度时,会报出以下错误,导致不能正常插入: 但是当直接在MySQL客户端操作时,发现确实可以的,只不过会自动对插入 ...

  5. Spring项目中执行Java脚本

    问题:在已搭建好Spring环境的JavaWeb项目中,怎么运行一段Java代码,执行一些类似脚本的功能. 情况一:测试局部功能,不需要依赖Spring框架的. 方法:IDEA中新建一个类,编写主函数 ...

  6. Android——Activity去除标题栏和状态栏

    一.在代码中设置 public void onCreate(Bundle savedInstanceState) {  super.onCreate(savedInstanceState);  //去 ...

  7. opencv----模板匹配

    引自:http://blog.csdn.net/liyuanbhu/article/details/49837661 OpenCV 学习笔记(模板匹配) 模板匹配是在一幅图像中寻找一个特定目标的方法之 ...

  8. knockout.js模板绑定之利用Underscore.js模板引擎示例

    View代码 <h1>People</h1> <ul data-bind="template: { name: 'peopleList' }"> ...

  9. 修改ie11的默认搜索引擎和主页

    虚机自动升级到了ie11,但发现默认的主页.搜索引擎都无法修改,改完了重新打开ie又被重置成微软的东东.找了个帖子,发现只要修改c:\windows\system32\drivers\etc下的hos ...

  10. 微信小程序——引用阿里云字体

    阿里图标官网:http://www.iconfont.cn 使用阿里云图标大致的方法就是:选中你的图标——保存至你的项目——下载你的图标项目——在项目中引用字体文件. 具体方法可以参考:引用阿里云矢量 ...