所谓Standalone模式HBase,就是只启动一个JVM进程,在这个进程中同时启动了多个后台角色,如:HMaster,单个HRegionServer,以及ZooKeeper服务。

下载安装

最新版本从这里下载。

历史版本从这里下载。

以最新版2.4.14为例说明,基于Ubuntu18.04 Server环境。

解压到到指定路径即可,如:/home/zhangsan/opt

$ tar xvf hbase-2.4.14-bin.tar.gz
$ cd hbase-2.4.14

修改配置参数:主要就是设置$JAVA_HOME环境变量。

$ vim conf/hbase-env.sh
export JAVA_HOME=/home/zhangsan/opt/jdk-11.0.16.1

启动服务:

$ cd /home/zhangsan/opt/hbase-2.4.14
$ ./bin/start-hbase.sh

查看服务是否启动成功:

zhangsan@ubuntu18_server:~/opt/hbase-2.4.14$ jps
8926 HMaster
9359 Jps

如果在Standalone模式启动成功,将会存在一个名称为HMaster的进程。

停止服务:

$ cd /home/zhangsan/opt/hbase-2.4.14
$ ./bin/stop-hbase.sh

访问HBase

整体来讲,有2类客户端可以连接并操作HBase:

第一类:HBase自带的命令行客户端

第二类:编程接口客户端

命令行客户端

# 进入到HBase安装目录
$ cd /home/zhangsan/opt/hbase-2.4.14 # 使用命令行连接HBase
$ ./bin/hbase shell # 创建表
> create 'test', 'cf' # 查看表是否存在
> list 'test' # 查看表详情
> describe 'test' # 向表中添加数据
> put 'test', 'row1', 'cf:a', 'value1'
> put 'test', 'row2', 'cf:b', 'value2'
> put 'test', 'row3', 'cf:c', 'value3' # 查看表中所有i数据
> scan 'test' # 获取表中一行数据
> get 'test', 'row1' # 禁用表
> disable 'test' # 启用表
> enable 'test' # 删除表
# 注意:删除表之前必须先禁用,否则报错“ERROR: Table xxx is enabled. Disable it first.”
> drop 'test' # 查看所有表
> list
TABLE
test
1 row(s)
Took 0.0557 seconds
=> ["test"]

编程客户端

最常用的编程客户端是HBase自带的hbase-client,这是一套比较底层的API,在实际使用时需要对其进行再封装。

关于hbase-client接口的基本使用参考Apache HBase APIs

详细使用可以参考如下文档:

HBase Java API: hbase-client

源码解读--(1)hbase客户端源代码

HBase(2) Java 操作 HBase 教程

值得注意的是,在使用接口时创建org.apache.hadoop.hbase.client.Connection对象代价非常昂贵,最好不要频繁创建,参考科学使用HBase Connection

HBase本地模式允许远程连接

所谓的HBase远程连接,就是指通过网络地址和端口访问,如下示例:

// 使用hbase-client连接远程HBase
Configuration conf = HBaseConfiguration.create();
conf.set("hbase.zookeeper.quorum", "192.168.10.100");
conf.set("hbase.zookeeper.property.clientPort", "2181");
Connection connection = ConnectionFactory.createConnection(conf);

默认情况下,以Standalone模式启动HBase时,ZooKeeper服务是无法通过远程方式连接的(端口只绑定了localhost)。

解决办法是使用外部的ZooKeeper服务(需要确保这个ZooKeeper能够被外部访问),同时需要修改HBase的相应配置参数(hbase-site.xml),如下所示:

<configuration>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value> <!-- 这个要改成true,才能使用外置的 zookeeper -->
</property>
<property>
<name>hbase.tmp.dir</name>
<value>./tmp</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>file:///opt/hbase-2.3.4/data/hbase</value>
</property> <property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/tmp/zookeeper</value>
</property> <property>
<name>hbase.zookeeper.quorum</name>
<value>localhost</value> <!-- 外部ZoopKeeper服务的连接地址,可以是IP地址或者域名 -->
</property> <property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value> <!-- 外部ZooKeeper服务的连接端口 -->
</property> </configuration>

详情参考:hbase (local mode) remote access

【参考】

https://hbase.apache.org/book.html#_preface

https://www.jianshu.com/p/1cf5ab260283 HBase的配置

https://www.yiibai.com/hbase HBase教程

https://blog.51cto.com/u_14286115/3703411 hbase中scan和get查看版本数据的区别

https://www.cnblogs.com/cc11001100/p/9911730.html HBase笔记之namespace

https://toboto.wang/2020/06/09/基于HBase的数据分析方案.html 基于HBase的数据分析方案

安装Standalone模式HBase的更多相关文章

  1. 3 hadoop安装Standalone模式和伪分布式模式

    1 Standalone模式默认模式,即默认配置即是standalone模式装好hadoop-client,会将依赖的包安装好yum install hadoop-client配置文件各个配置文件在/ ...

  2. Spark的StandAlone模式原理和安装、Spark-on-YARN的理解

    Spark是一个内存迭代式运算框架,通过RDD来描述数据从哪里来,数据用那个算子计算,计算完的数据保存到哪里,RDD之间的依赖关系.他只是一个运算框架,和storm一样只做运算,不做存储. Spark ...

  3. JBOSS EAP 6.0+ Standalone模式安装成Windows服务

    网上有一些文章介绍用JavaService.exe来实现,但是到EAP 6以上版本,我试过好象没成功,幸好JBoss官方已经推出了专门的工具. 一.先到官网下载http://www.jboss.org ...

  4. Spark2.1集群安装(standalone模式)

    机器部署 准备三台Linux服务器,安装好JDK1.7 下载Spark安装包 上传spark-2.1.0-bin-hadoop2.6.tgz安装包到Linux(intsmaze-131)上 解压安装包 ...

  5. Spark新手入门——3.Spark集群(standalone模式)安装

    主要包括以下三部分,本文为第三部分: 一. Scala环境准备 查看二. Hadoop集群(伪分布模式)安装 查看三. Spark集群(standalone模式)安装 Spark集群(standalo ...

  6. Spark安装部署(local和standalone模式)

    Spark运行的4中模式: Local Standalone Yarn Mesos 一.安装spark前期准备 1.安装java $ sudo tar -zxvf jdk-7u67-linux-x64 ...

  7. Spark standalone模式的安装(spark-1.6.1-bin-hadoop2.6.tgz)(master、slave1和slave2)

     前期博客  Spark运行模式概述 Spark standalone简介与运行wordcount(master.slave1和slave2) 开篇要明白 (1)spark-env.sh 是环境变量配 ...

  8. [会装]Spark standalone 模式的安装

    1. 简介 以standalone模式安装spark集群bin运行demo. 2.环境和介质准备 2.1 下载spark介质,根据现有hadoop的版本选择下载,我目前的环境中的hadoop版本是2. ...

  9. 【Spark】Spark的Standalone模式安装部署

    Spark执行模式 Spark 有非常多种模式,最简单就是单机本地模式,还有单机伪分布式模式,复杂的则执行在集群中,眼下能非常好的执行在 Yarn和 Mesos 中.当然 Spark 还有自带的 St ...

  10. spark运行模式之二:Spark的Standalone模式安装部署

    Spark运行模式 Spark 有很多种模式,最简单就是单机本地模式,还有单机伪分布式模式,复杂的则运行在集群中,目前能很好的运行在 Yarn和 Mesos 中,当然 Spark 还有自带的 Stan ...

随机推荐

  1. 【转帖】mysql一个索引块有多少指针_深刻理解MySQL系列之索引

    索引 查找一条数据的过程 先看下InnoDB的逻辑存储结构:node 表空间:能够看作是InnoDB存储引擎逻辑结构的最高层,全部的数据都存放在表空间中.默认有个共享表空间ibdata1.若是启用in ...

  2. CoreMark简单学习

    CoreMark简单学习 下载 https://github.com/eembc/coremark-pro 需要注意, 其实coremark是有两组. 一组是coremark 一组是 coremark ...

  3. [转帖]Cat导致内存不足原因分析

    背景 线上几亿的数据在回刷的时候容器服务会出现OOM而重启,导致任务中断 内存泄露分析 jmap -histo pid 找出了有几十亿的java.lang.StackTraceElement对象,找不 ...

  4. 金蝶Cosmic虚拟机简单使用与总结

    背景 知己知彼 简单学习下友商发出来的测试软件 看看有否对自己现在的工作有所指导 也看看对方的部署方式有啥优缺点 当然了仅是测试, 不是生产软件可能有失真. 注意 我没有测试序列号, 登录系统耗时很久 ...

  5. Docker内JVM参数的简单学习

    Docker内JVM参数的简单学习 背景 公司内部有K8S的项目. 基于K8S内容器的JVM参数的设置与标准虚拟机运行不太一样. 产品内部的启动脚本有一个设置, 在内存大于16G的情况下 默认取内存总 ...

  6. open,os模块的常用函数

    一.open用于读写文件 1.open的基本语法 : open(file,mode,buffering,encoding,errors.........),open中有如下几个参数,一般情况 下我们只 ...

  7. 热更新适配ibatis原理浅析

    一.热更新解决了什么问题? 在研发过程中,每个研发同学在联调.自测阶段中总会频繁的去执行编译.构建.打包的动作,遇到比较大的项目,执行一套流程下来,往往需要3-10分钟左右,极大的降低了研发的速度,基 ...

  8. 获取文件的后缀名(转为数组) 字符串和变量的拼接 HTML中字符串和变量的拼接

    1文件上传时,获取文件的后缀名### var cont="2010-23.23.xls" console.log(cont.split("."));//spli ...

  9. 【JS 逆向百例】网洛者反爬练习平台第二题:JJEncode 加密

    关注微信公众号:K哥爬虫,持续分享爬虫进阶.JS/安卓逆向等技术干货! 声明 本文章中所有内容仅供学习交流,抓包内容.敏感网址.数据接口均已做脱敏处理,严禁用于商业用途和非法用途,否则由此产生的一切后 ...

  10. Webpack4+实现原理

    目录 webpack4核心基础 1.webpack开篇 2.webpack配置文件 3.webpack配置文件注意点 4.webpack-sourcemap 5.webpack-file-loader ...