linux、hdfs、hive、hbase经常使用的命令
true
0 row(s) in 0.0020 seconds
false
0 row(s) in 0.0010 seconds
Table t1 does exist
0 row(s) in 0.0270 seconds
0 row(s) in 2.1080 seconds
hbase(main):004:0> drop 'score'
0 row(s) in 10.6740 seconds
0 row(s) in 5.1050 seconds
hbase(main):014:0> put 'score', 'xiaowen', 'course:China', '95'
0 row(s) in 33.4270 seconds
hbase(main):015:0> put 'score', 'xiaowen', 'course:Math', '99'
0 row(s) in 0.0130 seconds
hbase(main):016:0> put 'score', 'xiaowen', 'course:English', '98'
0 row(s) in 0.0040 seconds
ROW COLUMN+CELL
xiaowen column=course:China, timestamp=1400141524101, value=95
xiaowen column=course:English, timestamp=1400141591123, value=98
xiaowen column=course:Math, timestamp=1400141579107, value=99
1 row(s) in 0.0250 seconds
COLUMN CELL
course:China timestamp=1400141524101, value=95
course:English timestamp=1400141591123, value=98
course:Math timestamp=1400141579107, value=99
3 row(s) in 0.0110 seconds
COLUMN CELL
course:Math timestamp=1400141579107, value=99
1 row(s) in 0.0070 seconds
ROW COLUMN+CELL
xiaowen column=course:China, timestamp=1400141524101, value=95
xiaowen column=course:English, timestamp=1400141591123, value=98
xiaowen column=course:Math, timestamp=1400141579107, value=99
xiaoye column=course:China, timestamp=1400143888087, value=85
xiaoye column=course:English, timestamp=1400143921395, value=85
xiaoye column=course:Math, timestamp=1400143907407, value=85
2 row(s) in 0.0240 seconds
ROW COLUMN+CELL
xiaowen column=course:China, timestamp=1400141524101, value=95
xiaowen column=course:English, timestamp=1400141591123, value=98
xiaowen column=course:Math, timestamp=1400141579107, value=99
xiaoye column=course:China, timestamp=1400143888087, value=85
xiaoye column=course:English, timestamp=1400143921395, value=85
xiaoye column=course:Math, timestamp=1400143907407, value=85
2 row(s) in 0.0230 seconds
hbase(main):014:0> scan 'score', {COLUMNS=>'course:Math'}
ROW COLUMN+CELL
xiaowen column=course:Math, timestamp=1400141579107, value=99
xiaoye column=course:Math, timestamp=1400143907407, value=85
2 row(s) in 0.0270 seconds
2 row(s) in 0.1880 seconds
0 row(s) in 1.1260 seconds
hbase(main):023:0> put 'test', 'r1', 'c1:1', 'value1-1/1'
0 row(s) in 0.0360 seconds
hbase(main):024:0> put 'test', 'r1', 'c1:2', 'value1-1/2'
0 row(s) in 0.0210 seconds
hbase(main):025:0> put 'test', 'r1', 'c1:3', 'value1-1/3'
0 row(s) in 0.0170 seconds
hbase(main):026:0> put 'test', 'r1', 'c2:1', 'value1-2/1'
0 row(s) in 0.0100 seconds
hbase(main):027:0> put 'test', 'r1', 'c2:2', 'value1-2/2'
0 row(s) in 0.0060 seconds
hbase(main):028:0> put 'test', 'r2', 'c1:1', 'value2-1/1'
0 row(s) in 0.0110 seconds
hbase(main):029:0> put 'test', 'r2', 'c2:1', 'value2-2/1'
0 row(s) in 0.0080 seconds
ROW COLUMN+CELL
r1 column=c1:1, timestamp=1400152716678, value=value1-1/1
r1 column=c1:2, timestamp=1400152749600, value=value1-1/2
r1 column=c1:3, timestamp=1400152770555, value=value1-1/3
r1 column=c2:1, timestamp=1400152793839, value=value1-2/1
r1 column=c2:2, timestamp=1400152811436, value=value1-2/2
r2 column=c1:1, timestamp=1400152843148, value=value2-1/1
r2 column=c2:1, timestamp=1400152858073, value=value2-2/1
2 row(s) in 0.0490 seconds
DESCRIPTION ENABLED
{NAME => 'test', FAMILIES => [{NAME => 'c1', DATA_BLOCK_ENCODING => 'NONE', BLOOMFILTER => 'NONE', REPLICATION_SC true
OPE => '0', VERSIONS => '3', COMPRESSION => 'NONE', MIN_VERSIONS => '0', TTL => '2147483647', KEEP_DELETED_CELLS
=> 'false', BLOCKSIZE => '65536', IN_MEMORY => 'false', ENCODE_ON_DISK => 'true', BLOCKCACHE => 'true'}, {NAME =>
'c2', DATA_BLOCK_ENCODING => 'NONE', BLOOMFILTER => 'NONE', REPLICATION_SCOPE => '0', VERSIONS => '3', COMPRESSI
ON => 'NONE', MIN_VERSIONS => '0', TTL => '2147483647', KEEP_DELETED_CELLS => 'false', BLOCKSIZE => '65536', IN_M
EMORY => 'false', ENCODE_ON_DISK => 'true', BLOCKCACHE => 'true'}]}
1 row(s) in 0.2560 seconds
版权声明:本文博主原创文章,博客,未经同意不得转载。
linux、hdfs、hive、hbase经常使用的命令的更多相关文章
- Sqoop_具体总结 使用Sqoop将HDFS/Hive/HBase与MySQL/Oracle中的数据相互导入、导出
一.使用Sqoop将MySQL中的数据导入到HDFS/Hive/HBase watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvYWFyb25oYWRvb3A=/ ...
- sqoop1.4.6从mysql导入hdfs\hive\hbase实例
//验证sqoop是否连接到mysql数据库sqoop list-tables --connect 'jdbc:mysql://n1/guizhou_test?useUnicode=true& ...
- 利用Sqoop将MySQL海量测试数据导入HDFS和HBase
声明:作者原创,转载注明出处. 作者:帅气陈吃苹果 一.安装Sqoop 1.下载sqoop,解压.文件夹重命名 wget http://mirror.bit.edu.cn/apache/sqoop/1 ...
- hive的数据导入与数据导出:(本地,云hdfs,hbase),列分隔符的设置,以及hdfs上传给pig如何处理
hive表的数据源有四种: hbase hdfs 本地 其他hive表 而hive表本身有两种: 内部表和外部表. 而hbase的数据在hive中,可以建立对应的外部表(参看hive和hbase整合) ...
- 区分 hdfs hbase hive hbase适用场景
区分 hdfs hbase hive hbase适用场景 收藏 八戒_o 发表于 11个月前 阅读 308 收藏 1 点赞 0 评论 0 摘要: hdfs hbase hive hbase适用场景 H ...
- [转帖]hdfs hbase hive hbase适用场景
hdfs hbase hive hbase适用场景 https://www.cnblogs.com/liyulong1982/p/6001822.html Hive 不想用程序语言开发MapReduc ...
- 大数据Hadoop核心架构HDFS+MapReduce+Hbase+Hive内部机理详解
微信公众号[程序员江湖] 作者黄小斜,斜杠青年,某985硕士,阿里 Java 研发工程师,于 2018 年秋招拿到 BAT 头条.网易.滴滴等 8 个大厂 offer,目前致力于分享这几年的学习经验. ...
- HDFS,MapReduce,Hive,Hbase 等之间的关系
HDFS: HDFS是GFS的一种实现,他的完整名字是分布式文件系统,类似于FAT32,NTFS,是一种文件格式,是底层的. Hive与Hbase的数据一般都存储在HDFS上.Hadoop HDFS为 ...
- Hadoop核心架构HDFS+MapReduce+Hbase+Hive内部机理详解
转自:http://blog.csdn.net/iamdll/article/details/20998035 分类: 分布式 2014-03-11 10:31 156人阅读 评论(0) 收藏 举报 ...
- Centos搭建mysql/Hadoop/Hive/Hbase/Sqoop/Pig
目录: 准备工作 Centos安装 mysql Centos安装Hadoop Centos安装hive JDBC远程连接Hive Hbase和hive整合 Centos安装Hbase 准备工作: 配置 ...
随机推荐
- leetcode第一刷_Unique Paths
从左上到右下,仅仅能向右或向下,问一共同拥有多少种走法. 这个问题当然能够用递归和dp来做,递归的问题是非常可能会超时,dp的问题是须要额外空间. 事实上没有其它限制条件的话,这个问题有个非常easy ...
- 在gem5的full system下运行 alpha编译的测试程序 running gem5 on ubuntu in full system mode in alpha
背景 先需要在full system下运行gem5,通过网上查找资料以及向别人请教,终于成功运行,网上大多是关于alpha指令集的,且都是英文的,为了方便大家学习,现在总结一下,希望对大家有所帮助. ...
- 七古·夏泳小梅沙
七古·夏泳小梅沙 文/天地尘埃2020 近日与同学等海泳小梅沙,归后背黑而焦灼如针刺.一周后焦皮始脱尽,发现还是往日那个黄种人.涂鸦一文以记之. 一湾碧水青山前, 夏日方来酷暑煎. 疏狂仅仅愿清凉刻, ...
- 最经常使用的两种C++序列化方案的使用心得(protobuf和boost serialization)
导读 1. 什么是序列化? 2. 为什么要序列化?优点在哪里? 3. C++对象序列化的四种方法 4. 最经常使用的两种序列化方案使用心得 正文 1. 什么是序列化? 程序猿在编写应用程序的时候往往须 ...
- 【Gapps】安装GooglePlay引发一系列问题
再次感谢小海的支持,感谢大家的支持! 从安装CM至如今GooglePlay,小海为我提供了非常多方案,能够说是全面支持.仅仅是出于隐私不便公开他的个人信息,仅提供一个他的博客地址http://luha ...
- hdu 1542 Atlantis(段树&扫描线&面积和)
Atlantis Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 65536/32768 K (Java/Others) Total S ...
- hdu1992(递推)
题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=1992 题意:用1*2和2*1的小长方形铺垫4*W的方格有多少种方法. 分析:假如新加入1列,这列都竖着 ...
- java 线程关闭小结(转)
首先,要说的是java中没有一种停止线程的方法是绝对安全的.线程的中断Thread.interrput()方法很容易给人一种误会,让人感觉是一个线程使另外一个正在运行的线程停止工作,但实际上inter ...
- JqGrid 显示表
JqGrid 下表显示了前台图书馆.使用起来非常方便. 我在这里分享使用中遇到的问题及解决方案 ** 一.rowNum属性 ** 1.假设不设置,默认显示数是20,也就是说超过20以后的数据.不再显示 ...
- properties editor for eclipse安装使用
properties editor 是 Eclipse下编辑properties文件的插件,用来写国际化程序非常方便,自动保存为ASCII码,支持Unicode. 安装过程: 打开eclispe编辑器 ...