hadoop之hbase基本操作
hbase shell 进入hbase命令行
list 显示HBASE表
status 系统上运行的服务器的细节和系统的状态
version 返回HBase系统使用的版本
table_help 引导如何使用表引用的命令
whoami 返回当前HBase用户
# 建表
create 'base_test','personal data','professional data'
disable 'emp' 禁用表 enable可以重新启用
is_disabled 'table name' 查看表是否被禁用
disable_all 'r.*' 禁用一系列表
describe 'emp' 表描述
alter 't1', NAME => 'f1', VERSIONS => 5 单元的最大数目设置为5
# 使用alter,可以设置和删除表范围,运算符,如MAX_FILESIZE,READONLY,MEMSTORE_FLUSHSIZE,DEFERRED_LOG_FLUSH等。
alter 'emp', READONLY 设置表为只读
alter 't1', METHOD => 'table_att_unset', NAME => 'MAX_FILESIZE'
alter 'table name', 'delete'=> 'column family'
# 删除列簇
alter 'employee','delete'=>'professional'
exists 'emp' 判断表是否存在
drop 'emp' 删除表,删除表之前必须先禁用表
drop_all 't.*' 批量删除
put 'emp','','personal data:name','raju' 插入数据
put 'emp','','personal data:city','hyderabad'
put 'emp','','personal data:city','Delhi' 更新row=1,personal data=city数据的值为Delhi
get 'emp', '' 查询数据
get 'emp', '', {COLUMN=>'personal data:name'} 查询指定行、指定列
delete 'emp', '', 'personal data:city' 删除数据
deleteall 'emp','' 删除所有数据
count 'emp' 统计表的行数
truncate 'table name' 禁止删除并重新创建一个表
grant <user> <permissions> [<table> [<column family> [<column; qualifier>]]
R - 代表读取权限
W - 代表写权限
X - 代表执行权限
C - 代表创建权限
A - 代表管理权限
grant 'Tutorialspoint', 'RWXCA'
revoke命令用于撤销用户访问表的权限
revoke 'Tutorialspoint'
user_permission 'emp' 列出了emp表的所有用户权限。 # 新增列簇要先声明
disable 'emp'
alter 'emp', NAME => 'daily', VERSIONS =>1
enable 'emp'
# 为新列簇加入数据
put 'emp','2017-11-30','module:headline',''
put 'emp','2017-11-30','module:community',''
put 'emp','2017-11-30','module:car',''
put 'emp','2017-11-30','module:service',''
put 'emp','2017-11-30','module:my',''
put 'emp','2017-12-01','module:headline',''
put 'emp','2017-12-01','module:community',''
put 'emp','2017-12-01','module:car',''
put 'emp','2017-12-01','module:service',''
put 'emp','2017-12-01','module:my','' # 查询数据——通过rowkey
get 'emp','2017-12-01' # 查询数据——通过rowkey+columnkey
get 'emp','2017-12-01',{COLUMN => 'basic:active'}
get 'emp','2017-12-01','basic:login'
get 'emp','2017-12-01',{COLUMN => 'basic:active', TIMESTAMP => 1513218051477}
get 'emp','2017-12-01',{COLUMN => 'basic:active', TIMESTAMP => 1513218051477,VERSIONS => 1}
# 查询数据——通过rowkey+多个columnkey
get 'emp','2017-12-01',{COLUMN =>['basic:active','basic:newadd']} # 查询数据——通过rowkey+family
get 'emp','2017-12-01','basic' # 查询行数
count 'emp'
# 删除正行
deleteall 'emp','row1' # 按columkey查询
scan 'emp',{COLUMN => 'basic:active'}
scan 'emp',{COLUMN => ['basic:active','basic:newadd'],LIMIT => 2} # rowkey模糊查询
scan 'emp',{FILTER=>org.apache.hadoop.hbase.filter.PrefixFilter.new(org.apache.hadoop.hbase.util.Bytes.toBytes('2017-12'))} # 通过时间戳查询
scan 'emp',{TIMERANGE =>[1513218313453,1513218314019]}
# rowkey模糊查询——前缀过滤
scan 'emp',{ FILTER => "PrefixFilter ('2017-11')"}
# 查询rowkey中包含'12-0'的
import org.apache.hadoop.hbase.filter.CompareFilter
import org.apache.hadoop.hbase.filter.SubstringComparator
import org.apache.hadoop.hbase.filter.RowFilter
scan 'emp', {FILTER => RowFilter.new(CompareFilter::CompareOp.valueOf('EQUAL'), SubstringComparator.new('12-0'))}
# 查询rowkey 从2017-12-01开始,到2017-12-04截止,包含前不包含后
scan 'emp', {STARTROW=>'2017-12-01', STOPROW=>'2017-12-04'}
# 查询columnkey中前缀是'lo'
scan 'emp', FILTER=>"ColumnPrefixFilter('lo')"
# 查询value中包含''的
scan 'emp', FILTER=>"ValueFilter(=,'substring:57')" # 计数器
incr 'emp', '2017-12-01', 'daily:hits', 1
incr 'emp', '2017-12-01', 'daily:hits'
# 获取计数器
get_counter 'emp', '2017-12-01', 'daily:hits' 将hdfs上的数据push到hbase中
hadoop fs -put -f '/data/bglogs/databoardshells/app_ctr.txt' /tmp/hbase-input/
hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.columns=HBASE_ROW_KEY,ctr:c_key,ctr:show,ctr:click app_client /tmp/hbase-input/app_ctr.txt
hadoop之hbase基本操作的更多相关文章
- Hadoop HA高可用集群搭建(Hadoop+Zookeeper+HBase)
声明:作者原创,转载注明出处. 作者:帅气陈吃苹果 一.服务器环境 主机名 IP 用户名 密码 安装目录 master188 192.168.29.188 hadoop hadoop /home/ha ...
- 使用ganglia监控hadoop及hbase集群
一.Ganglia简介 Ganglia 是 UC Berkeley 发起的一个开源监视项目,设计用于测量数以千计的节点.每台计算机都运行一个收集和发送度量数据(如处理器速度.内存使用量等)的名为 gm ...
- hadoop +zookeeper + hbase 单节点安装
项目描述: 今天花了680元买了阿里云的一台内存1G, 带宽1M 的云主机. 想以后方便测试用,而且想把自己的博客签到自己的主机上.所以自己就搭了一个测试的环境. 可以用来进行基本的hbase 入库, ...
- Hadoop 之Hbase命令
一.常用命令:(hbase shell 进入终端) 1.创建表: create 'users','user_id','address','info' 表users,有三个列族user_id,addre ...
- 使用Ganglia监控hadoop、hbase
Ganglia是一个监控服务器,集群的开源软件,能够用曲线图表现最近一个小时,最近一天,最近一周,最近一月,最近一年的服务器或者集群的cpu负载,内存,网络,硬盘等指标. Ganglia的强大在于:g ...
- spring hadoop 访问hbase入门
1. 环境准备: Maven Eclipse Java Spring 版本 3..2.9 2. Maven pom.xml配置 <!-- Spring hadoop --> <d ...
- hadoop、hbase、hive、zookeeper版本对应关系
本文引用自:http://www.aboutyun.com/blog-61-62.html 最新版本: hadoop和hbase版本对应关系: Hbase Hadoop 0.92.0 1.0.0 ...
- hadoop中hbase出现的问题
在安装hbase中出现问题如下: ERROR: Can't get master address from ZooKeeper; znode data == null 解决办法: 1.删除nameno ...
- hadoop浅尝 hadoop与hbase交互
在安装好hbase之后,运行一个与hadoop无关的纯hbase程序成功了. 接着写一个hadoop与hbase进行交互的小程序,这个程序的运行方法依然与前文相同, 即导出jar文件在shell下运行 ...
随机推荐
- Windows下curl使用
一.简介 在上一篇中我们涉及到了一个在Ubuntu下使用的curl命令,而且使用这个命令来模拟server的功能来向谷歌的C2DMserver发送数据. 以下简单的来说下在Windows下相同的使用c ...
- Arcgis api for javascript学习笔记(4.5版本) - 获取FeatureLayer中的graphics集合
在Arcgis api for javascript 3.x 版本中,我们可以直接通过某个FeatureLayer对象中的graphics属性获取要素集合. graphics属性 但是在4.x版本中, ...
- PAT 1021-1030 题解
早期部分代码用 Java 实现.由于 PAT 虽然支持各种语言,但只有 C/C++标程来限定时间,许多题目用 Java 读入数据就已经超时,后来转投 C/C++.浏览全部代码:请戳 本文谨代表个人思路 ...
- C#List实现行转列
List实现行转列的通用方案 最近在做报表统计方面的需求,涉及到行转列报表.根据以往经验使用SQL可以比较容易完成,这次决定挑战一下直接通过代码方式完成行转列.期间遇到几个问题和用到的新知识这里整理记 ...
- UVA 548(二进制重建和遍历)
J - Tree Time Limit:3000MS Memory Limit:0KB 64bit IO Format:%lld & %llu Submit Status Ap ...
- C#常用多线程方法
1. Thread类 C#多线程编程中Thread类需要包含名称空间System.Threading. class Program { static void Main(string[] args) ...
- matlab 工具函数 —— normalize(归一化数据)
function x = normalize(x, mu, sigma) x = bsxfun(@minus, x, mu); x = bsxfun(@rdivide, x, sigma); end ...
- 32位与64位、单精度(single-precision)与双精度(double-precision)
What's the difference between a single precision and double precision floating point operation? 0. 6 ...
- qt4.8.7 源码在win7+vs2010环境的x64编译(qt 64位)
由于qt官网上,没有直接提供x64的安装包,但由于项目需要x64的qt,所以,小编不得不下载qt的源码,经历了一次长达约4个小时的编译过程.今年国庆7天,就遭这事上了,哈哈~~~ 几个下载链接: qt ...
- JSON的一些要点总结 专题
JavaScript Object Notation CSRF (pronounced sea-surf) 字面量(literal):字符串的意思和要表达的意思是一致的 JSON 是一种数据交换格式( ...