需要先启动 HDFS 集群和 ZooKeeper 集群。

Hadoop 集群安装:https://www.cnblogs.com/jhxxb/p/10629796.html

ZooKeeper 集群安装:https://www.cnblogs.com/jhxxb/p/10744264.html

zkServer.sh start
start-dfs.sh # 不启动 yarn 也可以
start-yarn.sh

一、安装

curl -o /opt/hbase-2.2.-bin.tar.gz http://mirrors.tuna.tsinghua.edu.cn/apache/hbase/2.2.1/hbase-2.2.1-bin.tar.gz

tar -zxf /opt/hbase-2.2.-bin.tar.gz -C /opt/

二、配置

hbase-env.sh

vim /opt/hbase-2.2./conf/hbase-env.sh

# The java implementation to use.  Java 1.8+ required.
export JAVA_HOME=/opt/jdk1..0_202/ # 不使用自带的 ZK
# Tell HBase whether it should manage it's own instance of ZooKeeper or not.
export HBASE_MANAGES_ZK=false

若是之前的版本还需注释两行配置,不然会报一些警告日志。

hbase-site.xml

可配置项在 hbase-default.xml 中,hbase-default.xml 在 lib/hbase-common-x.x.x.jar 中。

也可在线浏览:https://gitbox.apache.org/repos/asf?p=hbase.git;a=blob;f=hbase-common/src/main/resources/hbase-default.xml;hb=HEAD,或是 GitHub 上。

<configuration>
<!-- 数据在 HDFS 上的路径-->
<property>
<name>hbase.rootdir</name>
<value>hdfs://h136:9000/HBase</value>
</property> <!-- 默认 false,为单机模式 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property> <!-- 0.98 后的变动,之前版本没有 port,默认端口为 60000 -->
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property> <property>
<name>hbase.zookeeper.quorum</name>
<value>h136,h138,h140</value>
</property> <property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/apache-zookeeper-3.5.5-bin/zkData</value>
</property> <property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
</configuration>

regionservers

配置 HBase 集群

h136
h138
h140

软连接 hadoop 配置文件到 HBase

ln -s /opt/hadoop-2.9./etc/hadoop/core-site.xml /opt/hbase-2.2./conf/core-site.xml
ln -s /opt/hadoop-2.9./etc/hadoop/hdfs-site.xml /opt/hbase-2.2./conf/hdfs-site.xml

复制到其它节点

# yum install -y rsync
# rsync -avz /opt/hbase-2.2. h140:/opt/ scp -rq /opt/hbase-2.2./ root@h138:/opt/
scp -rq /opt/hbase-2.2./ root@h140:/opt/

附上环境变量配置(/etc/profile)

export HADOOP_HOME=/opt/hadoop-2.9.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin export JAVA_HOME=/opt/jdk1.8.0_202
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH export KAFKA_HOME=/opt/kafka_2.12-2.3.0
export PATH=$PATH:$KAFKA_HOME/bin export ZOOKEEPER_HOME=/opt/apache-zookeeper-3.5.5-bin
export PATH=$PATH:$ZOOKEEPER_HOME/bin export HBASE_HOME=/opt/hbase-2.2.1
export PATH=$PATH:$HBASE_HOME/bin

三、启动

如果集群之间的节点时间不同步,会导致 regionserver 无法启动,抛出 ClockOutOfSyncException 异常。

同步时间服务或修改属性

<property>
<name>hbase.master.maxclockskew</name>
<value>180000</value>
<description>Time difference of regionserver from master</description>
</property>

1.单节点启动(手动启动所有节点)

hbase-daemon.sh start master
hbase-daemon.sh start regionserver

2.集群启动(哪个节点启动 HBase,哪个节点就是 master 角色)

start-hbase.sh
stop-hbase.sh

3.查看 HBase 页面

启动成功后,可以通过 http://IP:16010 的方式来访问 HBase 管理页面。


https://hbase.apache.org/book.html#_configuration_files

https://abloz.com/hbase/book.html#example_config

HBase-集群安装的更多相关文章

  1. hbase单机环境的搭建和完全分布式Hbase集群安装配置

    HBase 是一个开源的非关系(NoSQL)的可伸缩性分布式数据库.它是面向列的,并适合于存储超大型松散数据.HBase适合于实时,随机对Big数据进行读写操作的业务环境. @hbase单机环境的搭建 ...

  2. HBase集群安装部署

    0x01 软件环境 OS: CentOS6.5 x64 java: jdk1.8.0_111 hadoop: hadoop-2.5.2 hbase: hbase-0.98.24 0x02 集群概况 I ...

  3. Hbase集群安装Version1.1.5

    Hbase集群安装,基于版本1.1.5, 使用hbase-1.1.5.tar.gz安装包. 1.安装说明 使用外部Zookeeper集群而非Hbase自带zookeeper, 使用Hadoop文件系统 ...

  4. hbase集群安装与部署

    1.相关环境 centos7 hadoop2.6.5 zookeeper3.4.9 jdk1.8 hbase1.2.4 本篇文章仅涉及hbase集群的搭建,关于hadoop与zookeeper的相关部 ...

  5. Hbase 集群安装(Hadoop 2.6.0 hbase0.99.2)

    一:说明 该安装是在hadoop集群安装后进行,详情可见上一篇博客虚拟机centos7系统下安装hadoop ha和yarn ha(详细) .其中涉及五台机器,两台master(机器名:master, ...

  6. HBase学习之路 (二)HBase集群安装

    前提 1.HBase 依赖于 HDFS 做底层的数据存储 2.HBase 依赖于 MapReduce 做数据计算 3.HBase 依赖于 ZooKeeper 做服务协调 4.HBase源码是java编 ...

  7. Apache HBase 集群安装文档

    简介: Apache HBase 是一个分布式的.面向列的开源 NoSQL 数据库.具有高性能.高可靠性.可伸缩.面向列.分布式存储的特性. HBase 的数据文件最终落地在 HDFS 之上,所以在 ...

  8. hbase集群安装和shell操作

    1.上传hbase安装包 2.解压 3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了) 注意:要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/ ...

  9. 1.Hbase集群安装配置(一主三从)

     1.HBase安装配置,使用独立zookeeper,shell测试 安装步骤:首先在Master(shizhan2)上安装:前提必须保证hadoop集群和zookeeper集群是可用的 1.上传:用 ...

  10. HBase集群安装

    1.HBase的机群搭建过程(在原来的hadoop0上的HBase伪分布基础上进行搭建)1.1 集群结构,主节点(hmaster)是hadoop0,从节点(region server)是hadoop1 ...

随机推荐

  1. 【年度盘点】10个热门Python练习项目

    这10个项目,约有270000人学习过. 今天给大家盘点一下实验楼最热门的10个Python练习项目.第二名是<200 行 Python 代码实现 2048>,第三名是<Python ...

  2. Scyther Advanced Topics

    建立非对称秘钥对 声明一个公钥函数和一个私钥函数: const pk2: Function ; const sk2: Function : 我们还声明这些函数代表非对称密钥对: inversekeys ...

  3. 【python cookbook】找出序列中出现次数最多的元素

    问题 <Python Cookbook>中有这么一个问题,给定一个序列,找出该序列出现次数最多的元素.例如: words = [ 'look', 'into', 'my', 'eyes', ...

  4. 剖析.o文件ELF组成

    ELF文件结构组成 ①总共13个节 ②每个节都有一个编号.从ELF头开始编号,编号从0开始,编号的作用就是用来索引(找到)不同节的. ③每个.o的都是这样的结构.链接时要做的就是,将ELF格式的.o全 ...

  5. kubernetes Node节点部署(四)

    一.部署kubelet 1.1.二进制包准备 将软件包从linux-node1复制到linux-node2中去 [root@linux-node1 ~]# cd /usr/local/src/kube ...

  6. jquery-deferred应用

    我们说jquery1.5之后用的用deferred,那么deferred到底是个什么东西,看个例子 var wait = function(){ var task = function(){ cons ...

  7. Google hacking 语法

    a b c 自动对词进行拆分匹配 拆分标准 空格 "a b c " 把a b c 当成一个整体去查 " a*b" *通配符 里面是一个或者多个 以a开头 b结尾 ...

  8. main方法中参数"String[ ] args"详解

    1.在编写完一个有主方法的java文件时,需要在cmd窗口中先编译此java文件(javac xxx.java),然后再运行(java xxx) 其实在运行java xxx的时候如果后面跟着参数用空格 ...

  9. mysql类型为varchar double类型字符串求和多出多个小数

    -- 错误 SELECT SUM(price) FROM m_user -- 正确 SELECT TRUNCATE ( ) FROM m_user u; -- 正确 SELECT ) ) FROM m ...

  10. 如果解释Python,什么是.pyc文件?

    我已经了解Python是一种解释型语言......但是,当我查看我的Python源代码时,我看到.pyc文件,Windows将其识别为“编译的Python文件”. 这些来自哪里? #1楼 Python ...