Hive 是基于Hadoop 构建的一套数据仓库分析系统。它提供了丰富的SQL查询方式来分析存储在Hadoop 分布式文件系统中的数据,能够将结构

化的数据文件映射为一张数据库表,并提供完整的SQL查询功能,能够将SQL语句转换为MapReduce任务进行执行。通过自己的SQL 去查询分析需

要的内容,这套SQL 简称Hive SQL。使不熟悉mapreduce 的用户非常方便的利用SQL 语言查询,汇总。分析数据。

而mapreduce开发者能够把

己写的mapper 和reducer 作为插件来支持Hive 做更复杂的数据分析。

它与关系型数据库的SQL 略有不同,但支持了绝大多数的语句如DDL、DML 以及常见的聚合函数、连接查询、条件查询。HIVE不适合用于联机

online)事务处理。也不提供实时查询功能。它最适合应用在基于大量不可变数据的批处理作业。



    HIVE的特点:可伸缩(在Hadoop的集群上动态的加入设备),可扩展,容错。输入格式的松散耦合。

Hive 的官方文档中对查询语言有了非常具体的描写叙述,请參考:http://wiki.apache.org/hadoop/Hive/LanguageManual 。本文的内容大部分翻译自该页面,期间增加了一些在使用过程中须要注意到的事项。

1.  DDL 操作

DDL
•建表
•删除表
•改动表结构
•创建/删除视图
•创建数据库
•显示命令

建表:

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name 

  [(col_name data_type [COMMENT col_comment], ...)] 

  [COMMENT table_comment] 

  [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] 

  [CLUSTERED BY (col_name, col_name, ...) 

  [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] 

  [ROW FORMAT row_format] 

  [STORED AS file_format] 

  [LOCATION hdfs_path]
•CREATE TABLE 创建一个指定名字的表。假设同样名字的表已经存在。则抛出异常;用户能够用 IF NOT EXIST 选项来忽略这个异常
•EXTERNAL keyword能够让用户创建一个外部表,在建表的同一时候指定一个指向实际数据的路径(LOCATION)
•LIKE 同意用户复制现有的表结构,可是不复制数据
•COMMENT能够为表与字段添加描写叙述
 
•ROW FORMAT
    DELIMITED [FIELDS TERMINATED BY char] [COLLECTION ITEMS TERMINATED BY char]
        [MAP KEYS TERMINATED BY char] [LINES TERMINATED BY char]
   | SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value, property_name=property_value, ...)]
         用户在建表的时候能够自己定义 SerDe 或者使用自带的 SerDe。

假设没有指定 ROW FORMAT 或者 ROW FORMAT DELIMITED,将会使用自带的 SerDe。

在建表的时候,用户还须要为表指定列。用户在指定表的列的同一时候也会指定自己定义的 SerDe,Hive 通过 SerDe 确定表的详细的列的数据。

•STORED AS
            SEQUENCEFILE
            | TEXTFILE
            | RCFILE    
            | INPUTFORMAT input_format_classname OUTPUTFORMAT             output_format_classname
       假设文件数据是纯文本,能够使用 STORED AS TEXTFILE。假设数据须要压缩。使用 STORED AS SEQUENCE 。

创建简单表:

hive> CREATE TABLE pokes (foo INT, bar STRING);

创建外部表:

CREATE EXTERNAL TABLE page_view(viewTime INT, userid BIGINT,
     page_url STRING, referrer_url STRING,
     ip STRING COMMENT 'IP Address of the User',
     country STRING COMMENT 'country of origination')
 COMMENT 'This is the staging page view table'
 ROW FORMAT DELIMITED FIELDS TERMINATED BY '\054'
 STORED AS TEXTFILE
 LOCATION '<hdfs_location>';

建分区表

CREATE TABLE par_table(viewTime INT, userid BIGINT,
     page_url STRING, referrer_url STRING,
     ip STRING COMMENT 'IP Address of the User')
 COMMENT 'This is the page view table'
 PARTITIONED BY(date STRING, pos STRING)
ROW FORMAT DELIMITED ‘\t’
   FIELDS TERMINATED BY '\n'
STORED AS SEQUENCEFILE;

建Bucket表

CREATE TABLE par_table(viewTime INT, userid BIGINT,
     page_url STRING, referrer_url STRING,
     ip STRING COMMENT 'IP Address of the User')
 COMMENT 'This is the page view table'
 PARTITIONED BY(date STRING, pos STRING)
 CLUSTERED BY(userid) SORTED BY(viewTime) INTO 32 BUCKETS
 ROW FORMAT DELIMITED ‘\t’
   FIELDS TERMINATED BY '\n'
STORED AS SEQUENCEFILE;

创建表并创建索引字段ds

hive> CREATE TABLE invites (foo INT, bar STRING) PARTITIONED BY (ds STRING);

复制一个空表

CREATE TABLE empty_key_value_store
LIKE key_value_store;

样例

create table  user_info (user_id int, cid string, ckid string, username string)

row format delimited

fields terminated by '\t'

lines terminated by '\n';

导入数据表的数据格式是:字段之间是tab键切割,行之间是断行。

及要我们的文件内容格式:

100636  100890  c5c86f4cddc15eb7        yyyvybtvt

100612  100865  97cc70d411c18b6f        gyvcycy

100078  100087  ecd6026a15ffddf5        qa000100

显示全部表:

hive> SHOW TABLES;

按正条件(正則表達式)显示表,

hive> SHOW TABLES '.*s';

改动表结构

•添加分区、删除分区
•重命名表
•改动列的名字、类型、位置、凝视
•添加/更新列
•添加表的元数据信息

表加入一列 :

hive> ALTER TABLE pokes ADD COLUMNS (new_col INT);

加入一列并添加列字段凝视

hive> ALTER TABLE invites ADD COLUMNS (new_col2 INT COMMENT 'a comment');

更改表名:

hive> ALTER TABLE events RENAME TO 3koobecaf;

删除列:

hive> DROP TABLE pokes;

添加、删除分区

•添加
ALTER TABLE table_name ADD [IF NOT EXISTS] partition_spec [ LOCATION 'location1' ] partition_spec [ LOCATION 'location2' ] ...
      partition_spec:
  : PARTITION (partition_col = partition_col_value, partition_col = partiton_col_value, ...)
•删除
ALTER TABLE table_name DROP partition_spec, partition_spec,...

重命名表

•ALTER TABLE table_name RENAME TO new_table_name 

改动列的名字、类型、位置、凝视:

•ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENT col_comment] [FIRST|AFTER column_name]
•这个命令能够同意改变列名、数据类型、凝视、列位置或者它们的随意组合

表加入一列 :

hive> ALTER TABLE pokes ADD COLUMNS (new_col INT);

加入一列并添加列字段凝视

hive> ALTER TABLE invites ADD COLUMNS (new_col2 INT COMMENT 'a comment');


添加/更新列

•ALTER TABLE table_name ADD|REPLACE COLUMNS (col_name data_type [COMMENT col_comment], ...)  
    
• ADD是代表新增一字段,字段位置在全部列后面(partition列前)
     REPLACE则是表示替换表中全部字段。

添加表的元数据信息

•ALTER TABLE table_name SET TBLPROPERTIES table_properties table_properties:
         :[property_name = property_value…..]
 
•用户能够用这个命令向表中添加metadata

改变表文件格式与组织

•ALTER TABLE table_name SET FILEFORMAT file_format
•ALTER TABLE table_name CLUSTERED BY(userid) SORTED BY(viewTime) INTO num_buckets BUCKETS
 
•这个命令改动了表的物理存储属性

创建/删除视图

•CREATE VIEW [IF NOT EXISTS] view_name [ (column_name [COMMENT column_comment], ...) ][COMMENT view_comment][TBLPROPERTIES (property_name = property_value, ...)] AS SELECT
•添加视图
•假设没有提供表名。视图列的名字将由定义的SELECT表达式自己主动生成
•假设改动基本表的属性,视图中不会体现,无效查询将会失败
•视图是仅仅读的。不能用LOAD/INSERT/ALTER
•DROP VIEW view_name
•删除视图

创建数据库

•CREATE DATABASE name

显示命令

•show tables;
•show databases;
•show partitions ;
•show functions
•describe extended table_name dot col_name

2.  DML 操作:元数据存储

hive不支持用insert语句一条一条的进行插入操作,也不支持update操作。

数据是以load的方式载入到建立好的表中。数据一旦导入就不能够改动。

DML包含:INSERT插入、UPDATE更新、DELETE删除
•向数据表内载入文件
•将查询结果插入到Hive表中
•0.8新特性 insert into

向数据表内载入文件

•LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)]
•Load 操作仅仅是单纯的复制/移动操作,将数据文件移动到 Hive 表相应的位置。

•filepath
•相对路径,比如:project/data1
•绝对路径,比如: /user/hive/project/data1
•包括模式的完整 URI,比如:hdfs://namenode:9000/user/hive/project/data1
比如:

hive> LOAD DATA LOCAL INPATH './examples/files/kv1.txt' OVERWRITE INTO TABLE pokes;

载入本地数据。同一时候给定分区信息

•载入的目标能够是一个表或者分区。假设表包括分区。必须指定每个分区的分区名
•filepath 能够引用一个文件(这样的情况下,Hive 会将文件移动到表所相应的文件夹中)或者是一个文件夹(在这样的情况下,Hive 会将文件夹中的全部文件移动至表所相应的文件夹中)
LOCALkeyword
•指定了LOCAL。即本地
•load 命令会去查找本地文件系统中的 filepath。

假设发现是相对路径,则路径会被解释为相对于当前用户的当前路径。用户也能够为本地文件指定一个完整的 URI。比方:file:///user/hive/project/data1.

•load 命令会将 filepath 中的文件拷贝到目标文件系统中。目标文件系统由表的位置属性决定。被复制的数据文件移动到表的数据相应的位置

比如:载入本地数据,同一时候给定分区信息:

hive> LOAD DATA LOCAL INPATH './examples/files/kv2.txt' OVERWRITE INTO TABLE invites PARTITION (ds='2008-08-15');

• 没有指定LOCAL
         假设 filepath 指向的是一个完整的 URI。hive 会直接使用这个 URI。 否则
•假设没有指定 schema 或者 authority,Hive 会使用在 hadoop 配置文件里定义的 schema 和 authority。fs.default.name 指定了 Namenode 的 URI
•假设路径不是绝对的,Hive 相对于 /user/ 进行解释。

Hive 会将 filepath 中指定的文件内容移动到 table (或者 partition)所指定的路径中

载入DFS数据 。同一时候给定分区信息:

hive> LOAD DATA INPATH '/user/myname/kv2.txt' OVERWRITE INTO TABLE invites PARTITION (ds='2008-08-15');

The above command will load data from an HDFS file/directory to the table. Note that loading data from HDFS will result in moving the file/directory. As a result, the operation is almost instantaneous.


OVERWRITE

•指定了OVERWRITE
•目标表(或者分区)中的内容(假设有)会被删除,然后再将 filepath 指向的文件/文件夹中的内容加入到表/分区中。
 
•假设目标表(分区)已经有一个文件,而且文件名称和 filepath 中的文件名称冲突。那么现有的文件会被新文件所替代。
 

将查询结果插入Hive表

•将查询结果插入Hive表
•将查询结果写入HDFS文件系统
•基本模式
     INSERT OVERWRITE TABLE tablename1 [PARTITION (partcol1=val1, partcol2=val2 ...)] select_statement1 FROM from_statement
•多插入模式
 FROM from_statement
INSERT OVERWRITE TABLE tablename1 [PARTITION (partcol1=val1, partcol2=val2 ...)] select_statement1
[INSERT OVERWRITE TABLE tablename2 [PARTITION ...] select_statement2] ...
•自己主动分区模式
 INSERT OVERWRITE TABLE tablename PARTITION (partcol1[=val1], partcol2[=val2] ...) select_statement FROM from_statement

将查询结果写入HDFS文件系统

•INSERT OVERWRITE [LOCAL] DIRECTORY directory1 SELECT ... FROM ...
        FROM from_statement
        INSERT OVERWRITE [LOCAL] DIRECTORY directory1 select_statement1
     [INSERT OVERWRITE [LOCAL] DIRECTORY directory2 select_statement2]
•数据写入文件系统时进行文本序列化。且每列用^A 来区分,\n换行

INSERT INTO

•INSERT INTO  TABLE tablename1 [PARTITION (partcol1=val1, partcol2=val2 ...)] select_statement1 FROM from_statement

3.  DQL 操作:数据查询SQL

SQL操作
•主要的Select 操作
•基于Partition的查询
•Join

3.1 主要的Select 操作

SELECT [ALL | DISTINCT] select_expr, select_expr, ...
FROM table_reference
[WHERE where_condition]
[GROUP BY col_list [HAVING condition]]
[   CLUSTER BY col_list
  | [DISTRIBUTE BY col_list] [SORT BY| ORDER BY col_list]
]
[LIMIT number]
•使用ALL和DISTINCT选项区分对反复记录的处理。

默认是ALL,表示查询全部记录。DISTINCT表示去掉反复的记录

•Where 条件
•类似我们传统SQL的where 条件
•眼下支持 AND,OR ,0.9版本号支持between
•IN, NOT IN
•不支持EXIST ,NOT EXIST
ORDER BY与SORT BY的不同
•ORDER BY 全局排序,仅仅有一个Reduce任务
•SORT BY 仅仅在本机做排序
 
Limit
•Limit 能够限制查询的记录数
SELECT * FROM t1 LIMIT 5
•实现Top k 查询
•以下的查询语句查询销售记录最大的 5 个销售代表。

SET mapred.reduce.tasks = 1 

  SELECT * FROM test SORT BY amount DESC LIMIT 5
•REGEX Column Specification
SELECT 语句能够使用正則表達式做列选择。以下的语句查询除了 ds 和 hr 之外的全部列:
SELECT `(ds|hr)?+.+` FROM test

比如

按先件查询

hive> SELECT a.foo FROM invites a WHERE a.ds='<DATE>';

将查询数据输出至文件夹:

hive> INSERT OVERWRITE DIRECTORY '/tmp/hdfs_out' SELECT a.* FROM invites a WHERE a.ds='<DATE>';

将查询结果输出至本地文件夹:

hive> INSERT OVERWRITE LOCAL DIRECTORY '/tmp/local_out' SELECT a.* FROM pokes a;

选择全部列到本地文件夹 :

hive> INSERT OVERWRITE TABLE events SELECT a.* FROM profiles a;

hive> INSERT OVERWRITE TABLE events SELECT a.* FROM profiles a WHERE a.key < 100;

hive> INSERT OVERWRITE LOCAL DIRECTORY '/tmp/reg_3' SELECT a.* FROM events a;

hive> INSERT OVERWRITE DIRECTORY '/tmp/reg_4' select a.invites, a.pokes FROM profiles a;

hive> INSERT OVERWRITE DIRECTORY '/tmp/reg_5' SELECT COUNT(1) FROM invites a WHERE a.ds='<DATE>';

hive> INSERT OVERWRITE DIRECTORY '/tmp/reg_5' SELECT a.foo, a.bar FROM invites a;

hive> INSERT OVERWRITE LOCAL DIRECTORY '/tmp/sum' SELECT SUM(a.pc) FROM pc1 a;

将一个表的统计结果插入还有一个表中:

hive> FROM invites a INSERT OVERWRITE TABLE events SELECT a.bar, count(1) WHERE a.foo > 0 GROUP BY a.bar;

hive> INSERT OVERWRITE TABLE events SELECT a.bar, count(1) FROM invites a WHERE a.foo > 0 GROUP BY a.bar;

JOIN

hive> FROM pokes t1 JOIN invites t2 ON (t1.bar = t2.bar) INSERT OVERWRITE TABLE events SELECT t1.bar, t1.foo, t2.foo;

将多表数据插入到同一表中:

FROM src

INSERT OVERWRITE TABLE dest1 SELECT src.* WHERE src.key < 100

INSERT OVERWRITE TABLE dest2 SELECT src.key, src.value WHERE src.key >= 100 and src.key < 200

INSERT OVERWRITE TABLE dest3 PARTITION(ds='2008-04-08', hr='12') SELECT src.key WHERE src.key >= 200 and src.key < 300

INSERT OVERWRITE LOCAL DIRECTORY '/tmp/dest4.out' SELECT src.value WHERE src.key >= 300;

将文件流直接插入文件:

hive> FROM invites a INSERT OVERWRITE TABLE events SELECT TRANSFORM(a.foo, a.bar) AS (oof, rab) USING '/bin/cat' WHERE a.ds > '2008-08-09';

This streams the data in the map phase through the script /bin/cat (like hadoop streaming). Similarly - streaming can be used on the reduce side (please see the Hive Tutorial or examples)

3.2 基于Partition的查询

•一般 SELECT 查询会扫描整个表,使用 PARTITIONED BY 子句建表,查询就能够利用分区剪枝(input pruning)的特性
•Hive 当前的实现是,仅仅有分区断言出如今离 FROM 子句近期的那个WHERE 子句中。才会启用分区剪枝
 

3.3 Join

Syntax
join_table: 

   table_reference JOIN table_factor [join_condition] 

  | table_reference {LEFT|RIGHT|FULL} [OUTER] JOIN table_reference join_condition 

  | table_reference LEFT SEMI JOIN table_reference join_condition 



table_reference: 

    table_factor 

  | join_table 



table_factor: 

    tbl_name [alias] 

  | table_subquery alias 

  | ( table_references ) 



join_condition: 

    ON equality_expression ( AND equality_expression )* 



equality_expression: 

    expression = expression
•Hive 仅仅支持等值连接(equality joins)、外连接(outer joins)和(left semi joins)。Hive 不支持全部非等值的连接,由于非等值连接很难转化到 map/reduce 任务
 
•LEFT,RIGHT和FULL OUTERkeyword用于处理join中空记录的情况
•LEFT SEMI JOIN 是 IN/EXISTS 子查询的一种更高效的实现
•join 时。每次 map/reduce 任务的逻辑是这种:reducer 会缓存 join 序列中除了最后一个表的全部表的记录,再通过最后一个表将结果序列化到文件系统
•实践中,应该把最大的那个表写在最后
join 查询时。须要注意几个关键点
•仅仅支持等值join
•SELECT a.* FROM a JOIN b ON (a.id = b.id)
•SELECT a.* FROM a JOIN b 

    ON (a.id = b.id AND a.department = b.department)
•能够 join 多于 2 个表,比如
  SELECT a.val, b.val, c.val FROM a JOIN b 

    ON (a.key = b.key1) JOIN c ON (c.key = b.key2)
 
•假设join中多个表的 join key 是同一个,则 join 会被转化为单个 map/reduce 任务
LEFT。RIGHT和FULL OUTER
•样例
•SELECT a.val, b.val FROM a LEFT OUTER JOIN b ON (a.key=b.key)
 
•假设你想限制 join 的输出,应该在 WHERE 子句中写过滤条件——或是在 join 子句中写
•easy混淆的问题是表分区的情况
• SELECT c.val, d.val FROM c LEFT OUTER JOIN d ON (c.key=d.key) 

  WHERE a.ds='2010-07-07' AND b.ds='2010-07-07‘
•假设 d 表中找不到相应 c 表的记录。d 表的全部列都会列出 NULL,包含 ds 列。也就是说,join 会过滤 d 表中不能找到匹配 c 表 join key 的全部记录。这种话,LEFT OUTER 就使得查询结果与 WHERE 子句无关
•解决的方法
•SELECT c.val, d.val FROM c LEFT OUTER JOIN d 

  ON (c.key=d.key AND d.ds='2009-07-07' AND c.ds='2009-07-07')
LEFT SEMI JOIN
•LEFT SEMI JOIN 的限制是。 JOIN 子句中右边的表仅仅能在 ON 子句中设置过滤条件,在 WHERE 子句、SELECT 子句或其它地方过滤都不行
•SELECT a.key, a.value 

  FROM a 

  WHERE a.key in 

   (SELECT b.key 

    FROM B);
       能够被重写为:
      SELECT a.key, a.val 

   FROM a LEFT SEMI JOIN b on (a.key = b.key)
UNION ALL
•用来合并多个select的查询结果,须要保证select中字段须一致
•select_statement UNION ALL select_statement UNION ALL select_statement ...

4.  从SQL到HiveQL应转变的习惯

1、Hive不支持等值连接

•SQL中对两表内联能够写成:
•select * from dual a,dual b where a.key = b.key;
•Hive中应为
•select * from dual a join dual b on a.key = b.key; 
而不是传统的格式:

SELECT t1.a1 as c1, t2.b1 as c2FROM t1, t2
WHERE t1.a2 = t2.b2

2、分号字符

•分号是SQL语句结束标记。在HiveQL中也是,可是在HiveQL中。对分号的识别没有那么智慧,比如:
•select concat(key,concat(';',key)) from dual;
•但HiveQL在解析语句时提示:
        FAILED: Parse Error: line 0:-1 mismatched input '<EOF>' expecting ) in function specification
•解决的办法是,使用分号的八进制的ASCII码进行转义,那么上述语句应写成:
•select concat(key,concat('\073',key)) from dual;
 

3、IS [NOT] NULL

•SQL中null代表空值, 值得警惕的是, 在HiveQL中String类型的字段若是空(empty)字符串, 即长度为0, 那么对它进行IS NULL的推断结果是False.

4、Hive不支持将数据插入现有的表或分区中,

仅支持覆盖重写整个表。示比例如以下:

  1. INSERT OVERWRITE TABLE t1
  2. SELECT * FROM t2;

4、hive不支持INSERT
INTO, UPDATE, DELETE操作

这种话,就不要非常复杂的锁机制来读写数据。

     INSERT INTO syntax is only available starting in version 0.8。INSERT INTO就是在表或分区中追加数据。

5、hive支持嵌入mapreduce程序,来处理复杂的逻辑

如:

  1. FROM (
  2. MAP doctext USING 'python wc_mapper.py' AS (word, cnt)
  3. FROM docs
  4. CLUSTER BY word
  5. ) a
  6. REDUCE word, cnt USING 'python wc_reduce.py';

--doctext: 是输入

--word, cnt: 是map程序的输出

--CLUSTER BY: 将wordhash后,又作为reduce程序的输入

而且map程序、reduce程序能够单独使用。如:

  1. FROM (
  2. FROM session_table
  3. SELECT sessionid, tstamp, data
  4. DISTRIBUTE BY sessionid SORT BY tstamp
  5. ) a
  6. REDUCE sessionid, tstamp, data USING 'session_reducer.sh';

--DISTRIBUTE BY: 用于给reduce程序分配行数据

6、hive支持将转换后的数据直接写入不同的表,还能写入分区、hdfs和本地文件夹。

这样能免除多次扫描输入表的开销。

  1. FROM t1
  2. INSERT OVERWRITE TABLE t2
  3. SELECT t3.c2, count(1)
  4. FROM t3
  5. WHERE t3.c1 <= 20
  6. GROUP BY t3.c2
  7. INSERT OVERWRITE DIRECTORY '/output_dir'
  8. SELECT t3.c2, avg(t3.c1)
  9. FROM t3
  10. WHERE t3.c1 > 20 AND t3.c1 <= 30
  11. GROUP BY t3.c2
  12. INSERT OVERWRITE LOCAL DIRECTORY '/home/dir'
  13. SELECT t3.c2, sum(t3.c1)
  14. FROM t3
  15. WHERE t3.c1 > 30
  16. GROUP BY t3.c2;

5.  实际演示样例

创建一个表

CREATE TABLE u_data (

userid INT,

movieid INT,

rating INT,

unixtime STRING)

ROW FORMAT DELIMITED

FIELDS TERMINATED BY '/t'

STORED AS TEXTFILE;

下载演示样例数据文件,并解压缩

wget http://www.grouplens.org/system/files/ml-data.tar__0.gz

tar xvzf ml-data.tar__0.gz

载入数据到表中:

LOAD DATA LOCAL INPATH 'ml-data/u.data'

OVERWRITE INTO TABLE u_data;

统计数据总量:

SELECT COUNT(1) FROM u_data;

如今做一些复杂的数据分析:

创建一个 weekday_mapper.py: 文件。作为数据按周进行切割

import sys

import datetime

for line in sys.stdin:

line = line.strip()

userid, movieid, rating, unixtime = line.split('/t')

生成数据的周信息

weekday = datetime.datetime.fromtimestamp(float(unixtime)).isoweekday()

print '/t'.join([userid, movieid, rating, str(weekday)])

使用映射脚本

//创建表,按切割符切割行中的字段值

CREATE TABLE u_data_new (

userid INT,

movieid INT,

rating INT,

weekday INT)

ROW FORMAT DELIMITED

FIELDS TERMINATED BY '/t';

//将python文件载入到系统

add FILE weekday_mapper.py;

将数据按周进行切割

INSERT OVERWRITE TABLE u_data_new

SELECT

TRANSFORM (userid, movieid, rating, unixtime)

USING 'python weekday_mapper.py'

AS (userid, movieid, rating, weekday)

FROM u_data;

SELECT weekday, COUNT(1)

FROM u_data_new

GROUP BY weekday;

处理Apache Weblog 数据

将WEB日志先用正則表達式进行组合,再按须要的条件进行组合输入到表中

add jar ../build/contrib/hive_contrib.jar;

CREATE TABLE apachelog (

host STRING,

identity STRING,

user STRING,

time STRING,

request STRING,

status STRING,

size STRING,

referer STRING,

agent STRING)

ROW FORMAT SERDE 'org.apache.hadoop.hive.contrib.serde2.RegexSerDe'

WITH SERDEPROPERTIES (

"input.regex" = "([^ ]*) ([^ ]*) ([^ ]*) (-|//[[^//]]*//]) ([^ /"]*|/"[^/"]*/") (-|[0-9]*) (-|[0-9]*)(?

: ([^ /"]*|/"[^/"]*/") ([^ /"]*|/"[^/"]*/"))?

",

"output.format.string" = "%1$s %2$s %3$s %4$s %5$s %6$s %7$s %8$s %9$s"

)

STORED AS TEXTFILE;

版权声明:本文博主原创文章。博客,未经同意不得转载。

Hadoop Hive sql 语法详细解释的更多相关文章

  1. Hadoop Hive sql语法详解

    Hadoop Hive sql语法详解 Hive 是基于Hadoop 构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop 分布式文件系统中的数据,可以将结构 化的数据文件 ...

  2. [转]Hadoop Hive sql语法详解

    转自 : http://blog.csdn.net/hguisu/article/details/7256833 Hive 是基于Hadoop 构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式 ...

  3. Hadoop Hive sql 语法详解

    Hive 是基于Hadoop 构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop 分布式文件系统中的数据,可以将结构化的数据文件映射为一张数据库表,并提供完整的SQL查询 ...

  4. Hive SQL 语法学习与实践

    Hive 介绍 Hive 是基于Hadoop 构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop 分布式文件系统中的数据,可以将结构化的数据文件映射为一张数据库表,并提供 ...

  5. 【hive】——Hive sql语法详解

    Hive 是基于Hadoop 构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop 分布式文件系统中的数据,可以将结构 化的数据文件映射为一张数据库表,并提供完整的SQL查 ...

  6. hive sql 语法详解

    Hive 是基于Hadoop 构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop 分布式文件系统中的数据,可以将结构 化的数据文件映射为一张数据库表,并提供完整的SQL查 ...

  7. Hive sql语法详解

      Hive 是基于Hadoop 构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop 分布式文件系统中的数据,可以将结构 化的数据文件映射为一张数据库表,并提供完整的SQ ...

  8. Hive sql 语法解读

    一. 创建表 在官方的wiki里,example是这种: Sql代码   CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name [(col_name d ...

  9. Hive SQL语法总结

    Hive是一个数据仓库基础的应用工具,在Hadoop中用来处理结构化数据,它架构在Hadoop之上,通过SQL来对数据进行操作. Hive 查询操作过程严格遵守Hadoop MapReduce 的作业 ...

随机推荐

  1. docker 的安装

    官方站点上有各种环境下的 安装指南,这里主要介绍下Ubuntu和CentOS系列的安装. Ubuntu 系列安装 Docker 通过系统自带包安装 Ubuntu 14.04 版本号系统中已经自带了 D ...

  2. Git管理工具对照(GitBash、EGit、SourceTree)

    Git管理工具对照(GitBash.EGit.SourceTree) GitBash是採用命令行的方式对版本号进行管理,功能最为灵活强大,可是由于须要手动输入希望改动的文件名称,所以相对繁琐. EGi ...

  3. UVA 11490 - Just Another Problem(数论)

    11490 - Just Another Problem option=com_onlinejudge&Itemid=8&page=show_problem&category= ...

  4. Spring——AOP配置时的jar包异常

    首先:这不是SSH整合的,这是单独配置Spring AOP的一个小例子. 所需要的jar包:如图: 我在这里出现的两个问题: 1.没有导入asm的jar包. 所报的异常为: java.lang.Cla ...

  5. jQuery插件之-瀑布流插件

    jquery.wookmark.js 一个实现瀑布流自适应宽度布局的jQuery插件—jquery.wookmark.js , wookmark使用非常简单到只需要一句代码就能实现,除此之外,当页面宽 ...

  6. SQL Server :理解DCM页

    原文:SQL Server :理解DCM页 我们已经讨论了各种不同的页,包括数据页.GAM与SGAM页.PFS页,还有IAM页.今天我们来看下差异变更页(Differential Change Map ...

  7. AndroidUI组件之ListView小技巧

    android:fadingEdge="none"//出去黑影  android:listSelector="@android:color/transparent&quo ...

  8. ios发电子邮件

    ios发电子邮件 by 吴雪莹 第一: NSString *myEmail = @"3423423423@qq.com"; NSString *toemail = @"a ...

  9. petshop4.0 其中详细解释(系统架构)

    前言:PetShop它是一个例子.微软用它来展示.Net容量企业系统开发.业界有很多.Net与J2EE争议.微软许多数据PetShop和Sun的PetStore从.这样的争论是不可避免的带有强烈的商业 ...

  10. linux上安装Drupal

    linux上安装Drupal 前言:国内用drupal的并不太多,网上资料也很少.要注意的是drupal尽量别使用apt来安装,特别是ubuntu平台的drupal做出了一定的更改,会妨碍后期的学习和 ...