hbase shell命令的使用

再使用hbase 命令之前先检查一下hbase是否运行正常

hadoop@Master:/usr/hbase/bin$ jps
HMaster
NameNode
SecondaryNameNode
Jps
TaskTracker
DataNode
HQuorumPeer
JobTracker
HRegionServer

如果运行不正常的话,关闭hbase后重新启动一下

stop-hbase.sh
start-hbase.sh

1.  status命令

hbase(main)::> status
servers, dead, 3.0000 average load

2. version命令

hbase(main)::> version
0.94., r1524863, Fri Sep :: UTC

3. create 命令
创建一个名为 test 的表,这个表只有一个列为 cf。其中表名、列都要用单引号括起来,并以逗号隔开。

hbase(main)::> create 'test', 'cf'
row(s) in 10.3830 seconds

4. list 命令
查看当前 HBase 中具有哪些表。

hbase(main)::> list
TABLE
test
row(s) in 0.3590 seconds

5. put 命令
使用 put 命令向表中插入数据,参数分别为表名、行名、列名和值,其中列名前需要列族最为前缀,时间戳由系统自动生成。
格式: put 表名,行名,列名([列族:列名]),值
例子:
加入一行数据,行名称为“row1”,列族“cf”的列名为”(空字符串)”,值位 value1。
我这里插入3条记录

hbase(main)::> put 'test', 'row1', 'cf:a', 'value1'
row(s) in 0.2350 seconds hbase(main)::> put 'test', 'row2', 'cf:b', 'value2'
row(s) in 0.0350 seconds hbase(main)::> put 'test', 'row3', 'cf:c', 'value3'
row(s) in 0.0040 seconds

6. describe 命令
查看表“test”的构造。

hbase(main)::> describe 'test'
DESCRIPTION ENABLED
'test', {NAME => 'cf', DATA_BLOCK_ENCODING => 'NONE true
', BLOOMFILTER => 'NONE', REPLICATION_SCOPE => '',
VERSIONS => '', COMPRESSION => 'NONE', MIN_VERSIO
NS => '', TTL => '', KEEP_DELETED_CELLS
=> 'false', BLOCKSIZE => '', IN_MEMORY => 'fal
se', ENCODE_ON_DISK => 'true', BLOCKCACHE => 'true'
}
row(s) in 1.6630 seconds

7.get 命令
a.查看表“test”中的行“row2”的相关数据。

hbase(main)::> get 'test','row2'
COLUMN CELL
cf:b timestamp=, value=value2
row(s) in 0.4500 seconds

b.查看表“test”中行“row2”列“cf :b”的值。

hbase(main)::> get 'test','row2', 'cf:b'
COLUMN CELL
cf:b timestamp=, value=value2
row(s) in 0.3090 seconds

或者

hbase(main)::> get 'test', 'row2', {COLUMN=>'cf:b'}
hbase(main)::> get 'test', 'row2', {COLUMNS=>'cf:b'}

备注:COLUMN 和 COLUMNS 是不同的,scan 操作中的 COLUMNS 指定的是表的列族, get操作中的 COLUMN 指定的是特定的列,COLUMNS 的值实质上为“列族:列修饰符”。COLUMN 和 COLUMNS 必须为大写。

8. scan 命令
a. 查看表“test”中的所有数据。

hbase(main)::> scan 'test'
ROW COLUMN+CELL
row1 column=cf:a, timestamp=, value=value1
row2 column=cf:b, timestamp=, value=value2
row3 column=cf:c, timestamp=, value=value3
row(s) in 0.0770 seconds

注意:
scan 命令可以指定 startrow,stoprow 来 scan 多个 row。
例如:

scan 'user_test',{COLUMNS =>'info:username',LIMIT =>, STARTROW => 'test', STOPROW=>'test2'}

b.查看表“scores”中列族“course”的所有数据。

hbase(main)::> scan  'scores', {COLUMN => 'grad'}
hbase(main)::> scan 'scores', {COLUMN=>'course:math'}
hbase(main)::> scan 'scores', {COLUMNS => 'course'}
hbase(main)::> scan 'scores', {COLUMNS => 'course'}

9.count 命令——统计出表中有多少条记录

hbase(main)::> count 'test'
row(s) in 1.6530 seconds

10. exists 命令——查看表是否存在

hbase(main)::> exists 'test'
Table test does exist
row(s) in 1.1620 seconds

11. incr 命令

给‘test’这个列增加 uid 字段,并使用counter实现递增
连续执行incr以上,COUNTER VALUE 的值会递增,通过get_counter

hbase(main)::> incr 'test', 'row2', 'uid',
COUNTER VALUE = hbase(main)::> incr 'test', 'row2', 'uid',
COUNTER VALUE =

查看表可以看到:

hbase(main)::> scan 'test'
ROW COLUMN+CELL
row1 column=uid:, timestamp=, value=buym:
row2 column=uid:, timestamp=, value=\x00\x00\x00\x
\x00\x00\x00\x05
row2 column=uid:, timestamp=, value=buym:
row(s) in 0.0790 seconds

12. delete 命令
删除表“test”中行为“row3”, 列族“cf”中的“c”。

hbase(main)::> delete 'test','row3','cf:c'
row(s) in 0.4640 seconds

13. truncate 命令——将表删除后再重新创建

hbase(main)::> truncate 'test'
Truncating 'test' table (it may take a while):
- Disabling table...
- Dropping table...
- Creating table...
row(s) in 5.6480 seconds

14. disbale、drop 命令
通过“disable”和“drop”命令删除“test”表。

hbase(main)::> disable 'test'
hbase(main)::> drop 'test'
row(s) in 3.9310 seconds

hbase 使用的更多相关文章

  1. Mapreduce的文件和hbase共同输入

    Mapreduce的文件和hbase共同输入 package duogemap;   import java.io.IOException;   import org.apache.hadoop.co ...

  2. Redis/HBase/Tair比较

    KV系统对比表 对比维度 Redis Redis Cluster Medis Hbase Tair 访问模式    支持Value大小 理论上不超过1GB(建议不超过1MB) 理论上可配置(默认配置1 ...

  3. Hbase的伪分布式安装

    Hbase安装模式介绍 单机模式 1> Hbase不使用HDFS,仅使用本地文件系统 2> ZooKeeper与Hbase运行在同一个JVM中 分布式模式– 伪分布式模式1> 所有进 ...

  4. Spark踩坑记——数据库(Hbase+Mysql)

    [TOC] 前言 在使用Spark Streaming的过程中对于计算产生结果的进行持久化时,我们往往需要操作数据库,去统计或者改变一些值.最近一个实时消费者处理任务,在使用spark streami ...

  5. Spark读写Hbase的二种方式对比

    作者:Syn良子 出处:http://www.cnblogs.com/cssdongl 转载请注明出处 一.传统方式 这种方式就是常用的TableInputFormat和TableOutputForm ...

  6. 深入学习HBase架构原理

    HBase定义 HBase 是一个高可靠.高性能.面向列.可伸缩的分布式存储系统,利用Hbase技术可在廉价PC Server上搭建 大规模结构化存储集群. HBase 是Google Bigtabl ...

  7. hbase协处理器编码实例

    Observer协处理器通常在一个特定的事件(诸如Get或Put)之前或之后发生,相当于RDBMS中的触发器.Endpoint协处理器则类似于RDBMS中的存储过程,因为它可以让你在RegionSer ...

  8. hbase集群安装与部署

    1.相关环境 centos7 hadoop2.6.5 zookeeper3.4.9 jdk1.8 hbase1.2.4 本篇文章仅涉及hbase集群的搭建,关于hadoop与zookeeper的相关部 ...

  9. 从零自学Hadoop(22):HBase协处理器

    阅读目录 序 介绍 Observer操作 示例下载 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,Sour ...

  10. Hbase安装和错误

    集群规划情况: djt1 active Hmaster djt2 standby Hmaster djt3 HRegionServer 搭建步骤: 第一步:配置conf/regionservers d ...

随机推荐

  1. Atitit. 提升开发效率与质量DSL ( 3) ----实现DSL的方式总结

    Atitit. 提升开发效率与质量DSL ( 3) ----实现DSL的方式总结 1. 管道抽象 1 2. 层次结构抽象(json,xml etc) 1 3. 异步抽象promise 1 4. Ide ...

  2. Leetcode 328 Odd Even Linked List 链表

    Given 1->2->3->4->5->NULL, return 1->3->5->2->4->NULL. 就是将序号为单数的放在前面,而 ...

  3. android: SQLite使用 SQL 操作数据库

    虽然 Android 已经给我们提供了很多非常方便的 API 用于操作数据库,不过总会有一些 人不习惯去使用这些辅助性的方法,而是更加青睐于直接使用 SQL 来操作数据库.这种人 一般都是属于 SQL ...

  4. SQL SERVER 2008中输入汉字乱码的问题

    搭建服务器时,系统是英文版windows server 2008 ,安装的中文语言包.安装SqlServer2008 后,数据库中文显示乱码. baidu 后,说是 排序规则 的问题.修改为 Chin ...

  5. 使用VSTS/TFS搭建iOS持续集成环境

    TFS 自2015版开始支持跨平台的持续集成环境,通过提供开源的build agent为 Windows / linux / macOS 提供了统一的持续集成环境管理能力.这篇文章给大家介绍一下如何使 ...

  6. RabbitMQ的工作队列和路由

    工作队列:Working Queue   工作队列这个概念与简单的发送/接收消息的区别就是:接收方接收到消息后,可能需要花费更长的时间来处理消息,这个过程就叫一个Work/Task.   几个概念 分 ...

  7. find the peak value

    A peak element is an element that is greater than its neighbors. Given an input array where num[i] ≠ ...

  8. js 去掉字符串前面的0

    <script>var a='00123';alert(a.replace(/\b(0+)/gi,""));</script>

  9. 进程、线程、轻量级进程、协程与 go 的 goroutine【转载+整理】

    本文内容 进程 线程 协程 Go 中的 goroutine 参考资料 最近,看一些文章,提到"协程"的概念,心想,进程,线程,协程,前两个很容易,任何一本关于操作系统的书都有说,开 ...

  10. Spark使用总结与分享

    背景 使用spark开发已有几个月.相比于python/hive,scala/spark学习门槛较高.尤其记得刚开时,举步维艰,进展十分缓慢.不过谢天谢地,这段苦涩(bi)的日子过去了.忆苦思甜,为了 ...