hive整合hbase
Hive整合HBase后的好处:
通过Hive把数据加载到HBase中,数据源可以是文件也可以是Hive中的表。
通过整合,让HBase支持JOIN、GROUP等SQL查询语法。
通过整合,不仅可完成HBase的数据实时查询,也可以使用Hive查询HBase中的数据完成复杂的数据分析。
配置
因为Hive与HBase整合的实现是利用两者本身对外的API接口互相通信来完成的,其具体工作交由Hive的lib目录中的hive-hbase-handler-.jar工具类来实现。所以只需要将hive的 hive-hbase-handler-.jar 复制到hbase/lib中就可以了。
[root@host lib]# cp hive-hbase-handler-2.1.1.jar $HBASE_HOME/lib
测试
通过hive创建hbase表
hive> CREATE TABLE t_name (id INT, NAME string)
> stored BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
> WITH serdeproperties (
> "hbase.columns.mapping" = ":key,st1:name")
> tblproperties ("hbase.table.name" = "t_name","hbase.mapred.output.outputtable" = "t_name");
OK
Time taken: 1.625 seconds
在hive中查看:
hive> show tables;
OK
cust_copy
t_name
Time taken: 0.127 seconds, Fetched: 2 row(s)
hive> show create table t_name;
OK
CREATE TABLE `t_name`(
`id` int COMMENT '',
`name` string COMMENT '')
ROW FORMAT SERDE
'org.apache.hadoop.hive.hbase.HBaseSerDe'
STORED BY
'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES (
'hbase.columns.mapping'=':key,st1:name',
'serialization.format'='1')
TBLPROPERTIES (
'COLUMN_STATS_ACCURATE'='{\"BASIC_STATS\":\"true\"}',
'hbase.mapred.output.outputtable'='t_name',
'hbase.table.name'='t_name',
'numFiles'='0',
'numRows'='0',
'rawDataSize'='0',
'totalSize'='0',
'transient_lastDdlTime'='1526546542')
Time taken: 0.308 seconds, Fetched: 19 row(s)
在HBASE中查看
hbase(main):004:0> list 't_name'
TABLE
t_name
1 row(s)
Took 0.0092 seconds
=> ["t_name"]
在hbase插入数据并查看数据:
hbase(main):006:0> put 't_name','1','st1:name','xiaoma'
Took 0.3709 seconds
hbase(main):007:0> put 't_name','2','st1:name','xiaozhang'
Took 0.0038 seconds
hbase(main):008:0> put 't_name','3','st1:name','tianyongtao'
Took 0.0051 seconds
hbase(main):009:0> scan 't_name'
ROW COLUMN+CELL
1 column=st1:name, timestamp=1526547097913, value=xiaoma
2 column=st1:name, timestamp=1526547115702, value=xiaozhang
3 column=st1:name, timestamp=1526547130241, value=tianyongtao
3 row(s)
Took 0.0327 seconds
通过hive查询:
hive> select * from t_name;
OK
t_name.id t_name.name
1 xiaoma
2 xiaozhang
3 tianyongtao
Time taken: 0.414 seconds, Fetched: 3 row(s)
hive> select * from t_name where id=1;
OK
t_name.id t_name.name
1 xiaoma
Time taken: 1.246 seconds, Fetched: 1 row(s)
hive> select * from t_name where id>1;
OK
t_name.id t_name.name
2 xiaozhang
3 tianyongtao
Time taken: 0.383 seconds, Fetched: 2 row(s)
删除表测试:
hive> drop table t_name;
OK
Time taken: 1.851 seconds
经查hbase中的t_name表被同步删除了
多列族
hive> CREATE TABLE t_role (id INT, NAME string,sex int,platid int)
> stored BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
> WITH serdeproperties (
> "hbase.columns.mapping" = ":key,info:NAME,info:sex,plat:platid")
> tblproperties ("hbase.table.name" = "t_role","hbase.mapred.output.outputtable" = "t_role");
OK
Time taken: 3.179 seconds
hbase(main):039:0> scan 't_role'
ROW COLUMN+CELL
1 column=info:name, timestamp=1526549089030, value=feige
1 column=info:sex, timestamp=1526549206235, value=0
1 column=plat:platid, timestamp=1526549241774, value=785
1 row(s)
Took 0.0287 seconds
hive> select * from t_role;
OK
t_role.id t_role.name t_role.sex t_role.platid
1 NULL 0 785
Time taken: 0.417 seconds, Fetched: 1 row(s)
发现name字段为空
hbase(main):040:0> put 't_role','1','info:NAME','feige'
Took 0.0033 seconds
hive> select * from t_role;
OK
t_role.id t_role.name t_role.sex t_role.platid
1 feige 0 785
Time taken: 0.422 seconds, Fetched: 1 row(s)
发现name字段被填充(因此要注意字段的大小写)
-----------------------
spark访问hive-hbase表,需要制定jars包如下:
spark-shell --master local-cluster[3,2,1024] --num-executors 3 --executor-memory 1g --jars /root/hive/apache-hive-2.1.1/lib/hive-hbase-handler-2.1.1.jar
hive整合hbase的更多相关文章
- 大数据学习系列之五 ----- Hive整合HBase图文详解
引言 在上一篇 大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机) 和之前的大数据学习系列之二 ----- HBase环境搭建(单机) 中成功搭建了Hive和HBase的环 ...
- 四 Hive整合HBase
安装环境: hbase版本:hbase-1.4.0-bin.tar.gz hive版本: apache-hive-1.2.1-bin.tar 注意请使用高一点的hbase版本,不然就算hive和h ...
- 创建hive整合hbase的表总结
[Author]: kwu 创建hive整合hbase的表总结.例如以下两种方式: 1.创建hive表的同步创建hbase的表 CREATE TABLE stage.hbase_news_compan ...
- Hive 整合Hbase
摘要 Hive提供了与HBase的集成,使得能够在HBase表上使用HQL语句进行查询 插入操作以及进行Join和Union等复杂查询.同时也可以将hive表中的数据映射到Hbase中. 应用 ...
- 大数据学习系列之九---- Hive整合Spark和HBase以及相关测试
前言 在之前的大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 中介绍了集群的环境搭建,但是在使用hive进行数据查询的时候会非常的慢,因为h ...
- Hive篇---Hive与Hbase整合
一.前述 Hive会经常和Hbase结合使用,把Hbase作为Hive的存储路径,所以Hive整合Hbase尤其重要. 二.具体步骤 hive和hbase同步https://cwiki.apache ...
- Hive综合HBase——经Hive阅读/书写 HBase桌子
社论: 本文将Hive与HBase整合在一起,使Hive能够读取HBase中的数据,让Hadoop生态系统中最为经常使用的两大框架互相结合.相得益彰. watermark/2/text/aHR0cDo ...
- 二十、Hadoop学记笔记————Hive On Hbase
Hive架构图: 一般用户接口采用命令行操作, hive与hbase整合之后架构图: 使用场景 场景一:通过insert语句,将文件或者table中的内容加入到hive中,由于hive和hbase已经 ...
- hive_学习_02_hive整合hbase(失败)
一.前言 本文承接上一篇:hive_学习_01_hive环境搭建(单机) ,主要是记录 hive 整合hbase的流程 二.环境准备 1.环境准备 操作系统 : linux CentOS 6.8 jd ...
随机推荐
- 蓝桥杯 ALGO-2:最大最小公倍数
算法训练 最大最小公倍数 时间限制:1.0s 内存限制:256.0MB 锦囊1 使用贪心来选择. 锦囊2 当n为奇数时,答案一定是n*(n-1)*(n-2). 当n为偶数时, ...
- 龙儿经理嘴上经常说的B树
国内的数据结构教材一般是按照Knuth定义,即“阶”定义为一个节点的子节点数目的最大值. 对于一棵m阶B-tree,每个结点至多可以拥有m个子结点.各结点的关键字和可以拥有的子结点数都有限制 规定m阶 ...
- treeql 基于rest 标准的接口开发协议
treeql 可以让我们按照数据库的关系模型,生成一个tree 模型的json 数据,基于rest 标准, 从设计上,来说还是很不错的,但是从长远发展来说graphql 应该会更好,也有相关的比较 参 ...
- smarty学习——组合修改器
对于同一个变量,你可以使用多个修改器.它们将从左到右按照设定好的顺序被依次组合使用. 使用时必须要用"|"字符作为它们之间的分隔符. 比如: {#userinfoname#} {# ...
- WebApi_使用技巧
1.自动生成帮助文档 http://www.shaoqun.com/a/234059.aspx 2.Json序列化循环引用的问题http://www.mamicode.com/info-detail ...
- js object对象赋值bug和对象复制clone方法
最近在写程序的时候发现,如果新建一个object对象objb,初始化值为obja,如果改变了objb对象的字段值,那么obja也会随之改变,看来对象赋值传递的是一个引用. 代码重现: <scri ...
- 洛谷4059找爸爸(Code+第一次月赛)
题目:https://www.luogu.org/problemnew/show/P4059 dp. 1.看出-A-B(k-1)可以理解成连续空格的第一个 -A,其余 -B: 2.把会干扰的“上一步右 ...
- WPF ListView 简单的拖拽实现(转)
首先设置ListView的AllowDrop=True:SelectionMode=Extended;并且ListView视图为GridVIew. private void listView1_Mou ...
- Telnet 工具远程连接服务器
1.启动tomcat 2. 使用telnet命令 打开CMD,输入telnet localhost 8080 3.显示如下界面,说明已经连接成功 4. 复制如下代码到连接成功的界面 HEAD / ...
- 编程写一个方法时,注意方法中传参数的数量最好不要超过5个,超过5个怎么办?可以用struct或class,或一个字典类
图 1 一.从图1发现了什么问题呢? 答案:1.参数传的的太多了:2.另外注释也没写好. 说明:一个方法中,传参数的数量最好不要超过5个. 应该采用:struct或class,或一个字典类都行.其中 ...