HBase集群部署与基础命令
HBase 集群部署
安装 hbase 之前需要先搭建好 hadoop 集群和 zookeeper 集群。hadoop 集群搭建可以参考:https://www.cnblogs.com/javammc/p/16545146.html
- 解压到安装目录
tar -zxvf hbase-1.3.1-bin.tar.gz
我解压到了/opt/lagou/servers/hbase-1.3.1 目录。
- 修改配置文件
- 把 hadoop 中配置的 core-site.xml、hdfs-site.xml 拷贝到 hbase 下的 conf 目录下
ln -s /opt/lagou/servers/hadoop-2.9.2/etc/hadoop/core-site.xml /opt/lagou/servers/hbase-1.3.1/conf/core-site.xml
ln -s /opt/lagou/servers/hadoop-2.9.2/etc/hadoop/hdfs-site.xml /opt/lagou/servers/hbase-1.3.1/conf/hdfs-site.xml
- 修改 hbase-env.sh
#添加java环境变量
export JAVA_HOME=/opt/module/jdk1.8.0_231
#指定使用外部的zk集群
export HBASE_MANAGES_ZK=FALSE
- 修改 hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://linux2:9000/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>linux2:2181,linux3:2181,linux4:2181</value>
</property>
</configuration>
- 修改 regionservers
linux2
linux3
linux4
- 在 hbase 的 conf 目录下创建文件 backup-masters
内容如下:
linux2
- 在每个节点上配置环境变量,vi /etc/profile
export HBASE_HOME=/opt/lagou/servers/hbase-1.3.1
export PATH=$PATH:$HBASE_HOME/bin
执行命令使配置生效
source /etc/profile
- 将 hbase-1.3.1 目录分发到其他 2 个节点
scp -r hbase-1.3.1 linux3:/opt/lagou/servers/
scp -r hbase-1.3.1 linux4:/opt/lagou/servers/
- 启动集群
#启动命令
start-hbase.sh
#停止命令
stop-hbase.sh
- 启动完成后,可以访问地址:
HMaster 的 ip:16010
HBase shell 基本操作
- 进入 HBase 客户端命令操作界面
hbase shell
shell 命令行里如果输错了命令,删除需要使用 Ctrl+Backspace
- 查看帮助命令
help
- 查看当前数据库里有哪些表
list
- 创建一个 user 表,包含 user_info、extra_info 两个列族
create 'user','base_info','extra_info'
#或者指定版本
create 'user2',{NAME => 'base_info',VERSIONS => '3'},{NAME => 'extra_info',VERSIONS => '3'}
- 添加数据
- 向 user 表中 row key 为 rk1,列族 base_info 的 name 列上插入值'xiaowang'
put 'user','rk1','base_info:name','xiaowang'
- 向 user 表中 row key 为 rk1,列族为 base_info 的 age 列插入值 30
put 'user','rk1','base_info:age',30
- 向 user 表中 row key 为 rk1,列族为 extra_info 的 address 列插入值'shanghai'
put 'user','rk1','extra_info:address','shanghai'
- 查询数据
- 查询 user 表中 row key 为 rk1 的所有信息
get 'user','rk1'
- 查询 user 表中 row key 为 rk1 的 base_info 列族的所有信息
get 'user','rk1','base_info'
- 查询 user 表中指定列族,指定字段的值
get 'user','rk1','base_info:name','base_info:age'
- 查询 user 表中多个列族的信息
get 'user','rk1','base_info','extra_info'
- 根据 rowkey 和列值进行查询
get 'user','rk1',{FILTER => "ValueFilter (=,'binary:shanghai')"}
- 根据 row key 和列名进行模糊查询
查询出列名:address
get 'user','rk1',{FILTER => "QualifierFilter (=,'substring:add')"}
- 查询表中所有数据
scan 'user'
- 查询表中列族为 base_info 的信息
scan 'user',{COLUMNS => 'base_info'}
# Scan时可以设置是否开启Raw模式,开启Raw模式会返回包括已添加删除标记但是未实际删除的数据
# VERSIONS指定查询的最大版本数
scan 'user',{COLUMNS => 'base_info',RAW => true, VERSIONS=> 3}
- 查询 user 表中列族为 base_info、extra_info,且列名中含 add 字符的数据
scan 'user',{COLUMNS => ['base_info','extra_info'],FILTER => "(QualifierFilter(=,'substring:add'))"}
- rowkey 的范围值查询
scan 'user',{COLUMNS => 'base_info',STARTROW => 'rk1',ENDROW => 'rk3'}
- 指定 rowkey 模糊查询
查询 user 表中 row key 以 rk 开头的数据
scan 'user' ,{FILTER =>"PrefixFilter('rk')"}
- 更新数据
更新操作同插入操作一模一样,只不过有数据就更新,没数据就添加
- 更新数据值
将 user 表中 rowkey 为 rk1 的 base_info 列族下的 name 修改为 xiaoliao
put 'user','rk1','base_info:name','xiaoliao'
- 删除数据和表
- 指定 rowkey 以及列名进行删除
delete 'user','rk2','base_info:name'
- 指定 rowkey 以及列名、时间戳进行删除
delete 'user','rk2','base_info:age',1662245345710
- 删除列族
alter 'user','delete' => 'extra_info'
- 清空表数据
truncate 'user'
- 删除表
#先disable,再drop,否则会报错
disable 'user'
drop 'user'
HBase集群部署与基础命令的更多相关文章
- Hbase集群部署及shell操作
本文详述了Hbase集群的部署. 集群部署 1.将安装包上传到集群并解压 scp hbase-0.99.2-bin.tar.gz mini1:/root/apps/ tar -zxvf hbase-0 ...
- HBase 集群部署
前提条件:hadoop及zookeeper机群已经搭建好. 配置hbase集群步骤: 1.配置hbase集群,要修改3个文件 注意:要把hadoop的hdfs-site.xml和core-site. ...
- Hbase集群部署
1.安装Hadoop集群 这个之前已经写过 2.安装Zookeeper 这个之前也已经写过 3.下载hbase,放到master机器,解压 4.修改hbase-env.sh,添加Java地址 expo ...
- Kubernetes集群部署及简单命令行操作
三个阶段部署docker:https://www.cnblogs.com/rdchenxi/p/10381631.html 环境准备 [root@master ~]# hostnamectl set- ...
- HBase集群部署脚本
#!/bin/bash # Sync HBASE_HOME across the cluster. Must run on master using HBase owner user. HBASE_H ...
- HBase集成Zookeeper集群部署
大数据集群为了保证故障转移,一般通过zookeeper来整体协调管理,当节点数大于等于6个时推荐使用,接下来描述一下Hbase集群部署在zookeeper上的过程: 安装Hbase之前首先系统应该做通 ...
- Hadoop及Zookeeper+HBase完全分布式集群部署
Hadoop及HBase集群部署 一. 集群环境 系统版本 虚拟机:内存 16G CPU 双核心 系统: CentOS-7 64位 系统下载地址: http://124.202.164.6/files ...
- Storm集群部署及单词技术
1. 集群部署的基本流程 集群部署的流程:下载安装包.解压安装包.修改配置文件.分发安装包.启动集群 注意: 所有的集群上都需要配置hosts vi /etc/hosts 192.168.239.1 ...
- 2.Storm集群部署及单词统计案例
1.集群部署的基本流程 2.集群部署的基础环境准备 3.Storm集群部署 4.Storm集群的进程及日志熟悉 5.Storm集群的常用操作命令 6.Storm源码下载及目录熟悉 7.Storm 单词 ...
随机推荐
- ansible变量引用
1. 在/etc/ansible/hosts默认文件中定义变量 [test] 192.168.163.130 #[test:vars] #key=ansible 或者 192.168.163.130 ...
- 从Mpx资源构建优化看splitChunks代码分割
背景 MPX是滴滴出品的一款增强型小程序跨端框架,其核心是对原生小程序功能的增强.具体的使用不是本文讨论的范畴,想了解更多可以去官网了解更多. 回到正题,使用MPX开发小程序有一段时间了,该框架对不同 ...
- Integer.MAX_VALUE 和 Integer.MIN_VALUE
在源码中可以看出其对应的值 Integer.MAX_VALUE是2^31 -1 = 2147483647 Integer.MIN_VALUE是-2^31 = -2147483648
- 使用 Cheat Engine 修改 Kingdom Rush 中的金钱、生命、星
最新博客链接 最近想学习一下 CE,刚好看见游戏库里装了 Kingdom Rush 就拿它来研究吧.这里写的东西,需要一些 Cheat Engine 的基础,可以看看教程. 这里主要是看写的注释,来理 ...
- 用面向对象的方式操作 JSON 甚至还能做四则运算 JSON 库
前言 在之前实现的 JSON 解析器中当时只实现了将一个 JSON 字符串转换为一个 JSONObject,并没有将其映射为一个具体的 struct:如果想要获取值就需要先做断言将其转换为 map 或 ...
- 《吐血整理》保姆级系列教程-玩转Fiddler抓包教程(2)-初识Fiddler让你理性认识一下
1.前言 今天的理性认识主要就是讲解和分享Fiddler的一些理论基础知识.其实这部分也没有什么,主要是给小伙伴或者童鞋们讲一些实际工作中的场景,然后隆重推出我们的猪脚(主角)-Fiddler. 1. ...
- 手写一个模拟的ReentrantLock
package cn.daheww.demo.juc.reentrylock; import sun.misc.Unsafe; import java.lang.reflect.Field; impo ...
- Windows 远程连接后,自动断开,所有程序都自动关闭(待验证,待更新)
win+r输入regedit打开注册表编辑SecurityLayer,将值改为2 计算机\HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Ter ...
- cenos 7 zookeeper Error contacting service. It is probably not running
zkServer.sh status 命令查看zookeeper集群的状态,发现异常 Error contacting service. It is probably not running 最开始以 ...
- 部署yum仓库
YUM介绍 YUM(全称为 Yellow dog Updater, Modified)是一个在Fedora和RedHat以及CentOS中的Shell前端软件包管理器. 基于RPM包管理,能够从指定的 ...