原生类型

原生类型包含TINYINT,SMALLINT,INT,BIGINT,BOOLEAN,FLOAT,DOUBLE,STRING,BINARY (Hive 0.8.0以上才可用),TIMESTAMP (Hive 0.8.0以上才可用),这些数据载入非常easy。仅仅要设置好列分隔符,依照列分隔符输出到文件就能够了。

如果有这么一张用户登陆表

CREATE TABLE login (
uid BIGINT,
ip STRING
)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
STORED AS TEXTFILE;

这表示登陆表ip字段和uid字段以分隔符','隔开。

输出hive表相应的数据

# printf "%s,%s\n" 3105007001 192.168.1.1 >> login.txt
# printf "%s,%s\n" 3105007002 192.168.1.2 >> login.txt

login.txt的内容:

# cat login.txt
3105007001,192.168.1.1
3105007002,192.168.1.2

载入数据到hive表

LOAD DATA LOCAL INPATH '/home/hadoop/login.txt' OVERWRITE INTO TABLE login PARTITION (dt='20130101'); 

查看数据

select uid,ip from login where dt='20130101';
3105007001 192.168.1.1
3105007002 192.168.1.2

array

如果登陆表是

CREATE TABLE login_array (
ip STRING,
uid array<BIGINT>
)
PARTITIONED BY (dt STRING)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
COLLECTION ITEMS TERMINATED BY '|'
STORED AS TEXTFILE;

这表示登陆表每一个ip有多个用户登陆,ip和uid字段之间使用','隔开,而uid数组之间的元素以'|'隔开。

输出hive表相应的数据

# printf "%s,%s|%s|%s\n" 192.168.1.1 3105007010 3105007011 3105007012 >> login_array.txt

# printf "%s,%s|%s|%s\n" 192.168.1.2  3105007020 3105007021 3105007022 >> login_array.txt

login_array.txt的内容:

cat login_array.txt
192.168.1.1,3105007010|3105007011|3105007012
192.168.1.2,3105007020|3105007021|3105007022

载入数据到hive表

LOAD DATA LOCAL INPATH '/home/hadoop/login_array.txt' OVERWRITE INTO TABLE login_array PARTITION (dt='20130101'); 

查看数据

select ip,uid from login_array where dt='20130101';
192.168.1.1 [3105007010,3105007011,3105007012]
192.168.1.2 [3105007020,3105007021,3105007022]

使用数组

select ip,uid[0] from login_array where dt='20130101'; --使用下标訪问数组

select ip,size(uid) from login_array where dt='20130101'; #查看数组长度

select ip from login_array where dt='20130101'  where array_contains(uid,'3105007011');#数组查找

很多其它操作參考 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF#LanguageManualUDF-CollectionFunctions

map

如果登陆表是

CREATE TABLE login_map (
ip STRING,
uid STRING,
gameinfo map<string,bigint>
)
PARTITIONED BY (dt STRING)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
COLLECTION ITEMS TERMINATED BY '|'
MAP KEYS TERMINATED BY ':'
STORED AS TEXTFILE;

这表示登陆表每一个用户都会有游戏信息。而用户的游戏信息有多个,key是游戏名。value是游戏的积分。map中的key和value以'':"分隔,map的元素以'|'分隔。

输出hive表相应的数据

# printf "%s,%s,%s:%s|%s:%s|%s:%s\n" 192.168.1.1  3105007010 wow 10 cf 1 qqgame 2  >> login_map.txt
# printf "%s,%s,%s:%s|%s:%s|%s:%s\n" 192.168.1.2 3105007012 wow 20 cf 21 qqgame 22 >> login_map.txt

login_map.txt的内容:

# cat login_map.txt
192.168.1.1,3105007010,wow:10|cf:1|qqgame:2
192.168.1.2,3105007012,wow:20|cf:21|qqgame:22

载入数据到hive表

LOAD DATA LOCAL INPATH '/home/hadoop/login_map.txt' OVERWRITE INTO TABLE login_map PARTITION (dt='20130101'); 

查看数据

select ip,uid,gameinfo from login_map where dt='20130101';
192.168.1.1 3105007010 {"wow":10,"cf":1,"qqgame":2}
192.168.1.2 3105007012 {"wow":20,"cf":21,"qqgame":22}

使用map

select ip,uid,gameinfo['wow'] from login_map where dt='20130101'; --使用下标訪问map

select ip,uid,size(gameinfo) from login_map where dt='20130101'; #查看map长度

select ip,uid from login_map where dt='20130101'  where array_contains(map_keys(gameinfo),'wow');#查看map的key。找出有玩wow游戏的记录

很多其它操作參考 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF#LanguageManualUDF-CollectionFunctions

struct

如果登陆表是

CREATE TABLE login_struct (
ip STRING,
user struct<uid:bigint,name:string>
)
PARTITIONED BY (dt STRING)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
COLLECTION ITEMS TERMINATED BY '|'
MAP KEYS TERMINATED BY ':'
STORED AS TEXTFILE;

user是一个struct,分别包括用户uid和username。

输出hive表相应的数据

printf "%s,%s|%s|\n" 192.168.1.1  3105007010 blue  >> login_struct.txt
printf "%s,%s|%s|\n" 192.168.1.2 3105007012 ggjucheng >> login_struct.txt

login_struct.txt的内容:

# cat login_struct.txt
192.168.1.1,3105007010,wow:10|cf:1|qqgame:2
192.168.1.2,3105007012,wow:20|cf:21|qqgame:22

载入数据到hive表

LOAD DATA LOCAL INPATH '/home/hadoop/login_struct.txt' OVERWRITE INTO TABLE login_struct PARTITION (dt='20130101'); 

查看数据

select ip,user from login_struct where dt='20130101';
192.168.1.1 {"uid":3105007010,"name":"blue"}
192.168.1.2 {"uid":3105007012,"name":"ggjucheng"}

使用struct

select ip,user.uid,user.name from login_map where dt='20130101'; 

union

用的比較少,临时不讲

嵌套复合类型

之前讲的array,map,struct这几种复合类型,里面的元素都是原生类型,假设元素是复合类型,那该怎么载入数据呢。

如果登陆表是

CREATE TABLE login_game_complex (
ip STRING,
uid STRING,
gameinfo map<bigint,struct<name:string,score:bigint,level:string>> )
PARTITIONED BY (dt STRING)
ROW FORMAT DELIMITED
STORED AS TEXTFILE;

这表示登陆表每一个用户都会有游戏信息,而用户的游戏信息有多个,key是游戏id,value是一个struct,包括游戏的名字。积分,等级。

这样的复杂类型的入库格式非常麻烦,并且复合嵌套层次非常多时,要生成的正确的格式也比較复杂,非常easy出错。

这里略微提下。在嵌套层次多的情况下,分隔符会会随着复合类型嵌套层次的递增。分隔符默认会以\0,\1,\2....变化。

这里不介绍从shell下生成文件load data入库。感兴趣的同学,能够看看hive的源码的org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe的serialize方法。

这里介绍使用还有一种数据操作方式:insert。先把一个简单的表的数据。载入load到hive,再使用insert插入数据到一个嵌套复杂类型的表。

创建简单的表

CREATE TABLE login_game_simple (
ip STRING,
uid STRING,
gameid bigint,
gamename string,
gamescore bigint,
gamelevel string
)
PARTITIONED BY (dt STRING)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
STORED AS TEXTFILE;

生成login_game_simple.txt的内容:

192.168.1.0,3105007010,1,wow,100,v1
192.168.1.0,3105007010,2,cf,100,v2
192.168.1.0,3105007010,3,qqgame,100,v3
192.168.1.2,3105007011,1,wow,101,v1
192.168.1.2,3105007011,3,qqgame,101,v3
192.168.1.2,3105007012,1,wow,102,v1
192.168.1.2,3105007012,2,cf,102,v2
192.168.1.2,3105007012,3,qqgame,102,v3

load data到hive后。再生成复杂的gameinfo map结构,插入到表login_game_complex

INSERT OVERWRITE TABLE login_game_complex PARTITION (dt='20130101')
select ip,uid,map(gameid, named_struct('name',gamename,'score',gamescore,'level',gamelevel) ) FROM login_game_simple where dt='20130101' ;

查询数据

select ip,uid,gameinfo from login_game_complex where dt='20130101';
192.168.1.0 3105007010 {1:{"name":"wow","score":100,"level":"v1"}}
192.168.1.0 3105007010 {2:{"name":"cf","score":100,"level":"v2"}}
192.168.1.0 3105007010 {3:{"name":"qqgame","score":100,"level":"v3"}}
192.168.1.2 3105007011 {1:{"name":"wow","score":101,"level":"v1"}}
192.168.1.2 3105007011 {3:{"name":"qqgame","score":101,"level":"v3"}}
192.168.1.2 3105007012 {1:{"name":"wow","score":102,"level":"v1"}}
192.168.1.2 3105007012 {2:{"name":"cf","score":102,"level":"v2"}}
192.168.1.2 3105007012 {3:{"name":"qqgame","score":102,"level":"v3"}}

这里仅仅是演示了嵌套复杂类型的入库方式,所以这里仅仅是样例。真正要完美入库。还是须要写一个自己定义函数。依据ip和uid做group by。然后把gameinfo合并起来。hive没有这种自己定义函数,篇幅着想,不引进复杂的自己定义函数编写。

hive原生和复合类型的数据载入和使用的更多相关文章

  1. Hive 文件格式 & Hive操作(外部表、内部表、区、桶、视图、索引、join用法、内置操作符与函数、复合类型、用户自定义函数UDF、查询优化和权限控制)

    本博文的主要内容如下: Hive文件存储格式 Hive 操作之表操作:创建外.内部表 Hive操作之表操作:表查询 Hive操作之表操作:数据加载 Hive操作之表操作:插入单表.插入多表 Hive语 ...

  2. WebService之Axis2(2):复合类型数据的传递

    在实际的应用中,不仅需要使用WebService来传递简单类型的数据,有时也需要传递更复杂的数据,这些数据可以被称为复合类型的数据.数组与类(接口)是比较常用的复合类型.在Axis2中可以直接使用将W ...

  3. 第54讲:Scala中复合类型实战详解

    今天学习了scala的复合类型的内容,让我们通过实战来看看代码: trait Compound_Type1trait Compound_Type2class Compound_Type extends ...

  4. 实现在GET请求下调用WCF服务时传递对象(复合类型)参数

    WCF实现RESETFUL架构很容易,说白了,就是使WCF能够响应HTTP请求并返回所需的资源,如果有人不知道如何实现WCF支持HTTP请求的,可参见我之前的文章<实现jquery.ajax及原 ...

  5. C语言中的复合类型

    复合类型 一.掌握的类型 1. 指针数组 int * arr[10]; //arr是一个数组,有10个元素,每个元素都是一个指针,即arr是一个指针数组 int a,b,c,d; arr[0] = & ...

  6. 学习C++.Primer.Plus 4 复合类型

    本章介绍的有复合类型有: 数组. 字符串. 结构. 共用体. 指针 数组: 声明数组时数组长度必须为常量(或const). 只有初始化时可以用“=”,其它时候均不可以给数组直接赋值,除了赋值的元素以外 ...

  7. Scala 深入浅出实战经典 第54讲:Scala中复合类型实战详解

    王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-64讲)完整视频.PPT.代码下载:百度云盘:http://pan.baidu.com/s/1c0noOt6 ...

  8. hive中同列多行数据组合的方法以及array to string要点(行转列)

    1. 同列多行数据组合成一个字段cell的方法, top N 问题的hive方案 如下: hive 列转行 to json与to array list set等复杂结构,hive topN的提取的窗口 ...

  9. struts复合类型传值(对象传值)

    01:导包,配置web.xml <?xml version="1.0" encoding="UTF-8"?> <web-app version ...

随机推荐

  1. raphael 支持group(简)

    raphael 不支持group,里面有的set方法,只是把对象数组存起来,方法调用的时候,遍历都调用下,但是在实际需求上面感觉group还是瞒有用处的,可以控制group下面的节点的交互 比如地图区 ...

  2. C#.NET中的CTS、CLS和CLR

    以下内容来自:http://www.cnblogs.com/zagelover/articles/2741370.html 在学习.NET的过程中,都会不可避免地接触到这三个概念,那么这三个东西是什么 ...

  3. Oracle EBS-SQL (BOM-5):检查有BOM但物料状态为NEW的物料.sql

    select DISTINCT     msi.segment1 成品编码    ,msi.description 成品描述    ,msi.item_type 物料类型    ,msi.invent ...

  4. 转: Apache开启gzip

    Apache开启gzip gzip是什么 HTTP协议上的GZIP编码是一种用来改进WEB应用程序性能的技术.大流量的WEB站点常常使用GZIP压缩技术来让用户感受更快的速度. 这一般是指WWW服务器 ...

  5. 关于httpservletrequest的获取真实的ip

    via 值为: 下面是一些DemoWTP/1.1 GDSZ-PS-GW010-WAP05.gd.chinamobile.com (Nokia WAP Gateway 4.0 CD3/ECD13_C/N ...

  6. sass的cd进入目录

    今天在弄sass安装进入项目文件命令 直接f:

  7. LNMP : 502 Bad Gateway 解决小记,真正的原因

    站点搬迁到新的server.原先一直都是LAMP.如今改为LNMP. 将重写文件 htaccess改成 nginx的 conf.放到了站点.可仅仅能打开首页,其它重写页面一打开都是不停的载入. 载入等 ...

  8. Bootstrap学习之一起步

    说起Bootstrap,第一次接触到这个名词的时候还是同事在做自适应页面技术分享会时了解到,在之后的项目中就逐渐应用了这个前端WEB CSS框架.      

  9. jsp建立错误页自动跳转

    在各个常用的web站点中,经常会发现这样一个功能:当一个页面出错后,会自动跳转到一个页面上进行错误信息的提示. 想要完成错误页的操作,则一定要满足两个条件: 1.指定错误出现时的跳转页,通过error ...

  10. SSM搭配中的web.xml的配置信息

    最近一段时间在自己学着搭建SSM框架的项目,其实这个项目自由自己不断尝试,不断失败,才能印象更深刻. 下面就说一下在项目中的web.xml的相关配置信息: <?xml version=" ...