1.insert

Insert时,from子句既能够放在select子句后,也能够放在insert子句前,以下两句是等价的

hive> FROM invites a INSERT OVERWRITE TABLE eventsSELECT a.bar, count(*) WHERE a.foo > 0 GROUP BY a.bar;

hive> INSERT OVERWRITE TABLE events SELECTa.bar, count(*) FROM invites a WHERE a.foo > 0 GROUP BY a.bar;

2.导出文件到本地

INSERTOVERWRITE LOCAL DIRECTORY '/tmp/local_out' SELECT a.* FROM pokes a;

一个源能够同一时候插入到多个目标表或目标文件,多目标insert能够用一句话来完毕

FROM src

  INSERT OVERWRITE TABLE dest1 SELECT src.*WHERE src.key < 100

  INSERT OVERWRITE TABLE dest2 SELECT src.key,src.value WHERE src.key >= 100 and src.key < 200

  INSERT OVERWRITE TABLE dest3PARTITION(ds='2014-08-22', hr='12') SELECT src.key WHERE src.key >= 200 andsrc.key < 300

  INSERT OVERWRITE LOCAL DIRECTORY'/tmp/dest4.out' SELECT src.value WHERE src.key >= 300;

执行一个脚本(两种方式)

HIVE_HOME/bin/hive-f /home/my/hive-script.sql

HIVE_HOME/bin/hive-i /home/my/hive-init.sql

3.hive CLI

 hive>set  i=32;

 hive> set i;

 hive> select a.* from xiaojun a;

 hive> !ls;

 hive> dfs -ls;

eg:

  hive> set$i='121.61.99.14.128160791368.5';

  hive> selectcount(*) from c02_clickstat_fatdt1 where cookie_id=$i;

4.REGEX Column

  SELECT 语句能够使用正則表達式做列选择,以下的语句查询除了 ds 和 hr 之外的全部列:SELECT `(ds|hr)?+.+` FROM sales

 

5.Sort By 语法:

Sort顺序将依据列类型而定。假设数字类型的列,则排序顺序也以数字顺序。假设字符串类型的列,则排序顺序将按字典顺序。

colOrder: ( ASC | DESC )

sortBy: SORT BY colName colOrder? (',' colName colOrder?)*

query: SELECT expression (',' expression)* FROM src sortBy

6.group by

  高级特性:

  聚合可进一步分为多个表,甚至发送到Hadoop的DFS的文件(能够进行操作,然后使用HDFS的utilitites)。比如我们能够依据性别划分,须要找到独特的页面浏览量按年龄划分。如以下的样例:

  FROM pv_users  

  INSERT OVERWRITE TABLE pv_gender_sum

  SELECT pv_users.gender, count(DISTINCT pv_users.userid)

  GROUP BY pv_users.gender

  INSERT OVERWRITE DIRECTORY '/user/facebook/tmp/pv_age_sum'

  SELECT pv_users.age, count(DISTINCT pv_users.userid)

  GROUP BY pv_users.age;

 

  hive.map.aggr能够控制怎么进行汇总。默觉得为true,配置单元会做的第一级聚合直接在MAP上的任务。这通常提供更好的效率,但可能须要很多其它的内存来执行成功。

  set hive.map.aggr=true;

  SELECT COUNT(*) FROM table2;

  PS:在要特定的场合使用可能会加效率。只是我试了一下,比直接使用False慢非常多。

1.Join

Hive 仅仅支持等值连接(equality joins)、外连接(outer joins)和(left/right joins)。Hive 不支持全部非等值的连接,由于非等值连接很难转化到 map/reduce 任务。另外,Hive 支持多于 2 个表的连接。

比如:

  SELECT a.* FROMa JOIN b ON (a.id = b.id)

  SELECT a.* FROMa JOIN b

  ON (a.id =b.id AND a.department = b.department)

是正确的,然而:

  SELECT a.* FROMa JOIN b ON (a.id  b.id)

是错误的。

a.能够 join 多于 2 个表。

比如

  SELECT a.val,b.val, c.val FROM a JOIN b

    ON (a.key =b.key1) JOIN c ON (c.key = b.key2)

假设join中多个表的 join key 是同一个,则 join 会被转化为单个 map/reduce 任务,比如:

  SELECT a.val,b.val, c.val FROM a JOIN b

    ON (a.key =b.key1) JOIN c

    ON (c.key =b.key1)

被转化为单个 map/reduce 任务,由于 join 中仅仅使用了 b.key1 作为 join key。

SELECT a.val, b.val, c.val FROM a JOIN b ON (a.key =b.key1)

JOIN c ON (c.key= b.key2)

而这一 join 被转化为 2 个map/reduce 任务。由于 b.key1 用于第一次join 条件,而 b.key2 用于第二次 join。 

b.join 时,每次 map/reduce 任务的逻辑:

reducer 会缓存 join 序列中除了最后一个表的全部表的记录,再通过最后一个表将结果序列化到文件系统。这一实现有助于在 reduce 端降低内存的使用量。实践中,应该把最大的那个表写在最后(否则会由于缓存浪费大量内存)。比如:

SELECT a.val,b.val, c.val FROM a

JOIN b ON(a.key = b.key1) JOIN c ON (c.key = b.key1)

全部表都使用同一个 join key(使用 1 次map/reduce 任务计算)。Reduce 端会缓存 a 表和 b 表的记录,然后每次取得一个 c 表的记录就计算一次 join 结果,类似的还有:

SELECT a.val,b.val, c.val FROM a

JOIN b ON(a.key = b.key1) JOIN c ON (c.key = b.key2)

这里用了 2 次 map/reduce 任务。第一次缓存 a 表,用 b 表序列化;第二次缓存第一次 map/reduce 任务的结果,然后用 c 表序列化。

c.LEFT,RIGHT 和 FULLOUTER keyword用于处理 join 中空记录的情况。

比如:

  SELECT a.val,b.val FROM a LEFT OUTER

  JOIN b ON(a.key=b.key)

相应全部 a 表中的记录都有一条记录输出。输出的结果应该是 a.val, b.val,当 a.key=b.key 时,而当 b.key 中找不到等值的 a.key 记录时也会输出 a.val, NULL。“FROM a LEFT OUTER JOIN b”这句一定要写在同一行——意思是 a 表在 b 表的左边,所以 a 表中的全部记录都被保留了;“aRIGHT OUTER JOIN b”会保留全部 b 表的记录。OUTER JOIN 语义应该是遵循标准 SQL spec的。

Join 发生在 WHERE 子句之前。假设你想限制 join 的输出,应该在 WHERE 子句中写过滤条件——或是在 join 子句中写。这里面一个easy混淆的问题是表分区的情况:

  SELECT a.val,b.val FROM a

  LEFT OUTER JOINb ON (a.key=b.key)

  WHEREa.ds='2014-08-22' AND b.ds='2014-08-022'

会 join a 表到 b 表(OUTERJOIN),列出 a.val 和 b.val 的记录。WHERE 从句中能够使用其它列作为过滤条件。可是,如前所述,假设 b 表中找不到相应 a 表的记录,b 表的全部列都会列出NULL,包含 ds 列。也就是说,join 会过滤 b 表中不能找到匹配a 表 join key 的全部记录。这种话,LEFTOUTER 就使得查询结果与 WHERE 子句无关了。解决的办法是在 OUTER JOIN 时使用下面语法:

  SELECT a.val,b.val FROM a LEFT OUTER JOIN b

  ON (a.key=b.keyAND

     b.ds='2014-08-22' AND

     a.ds='2014-08-22')

这一查询的结果是预先在 join 阶段过滤过的,所以不会存在上述问题。这一逻辑也能够应用于 RIGHT 和 FULL 类型的 join 中。

Join 是不能交换位置的。不管是 LEFT 还是 RIGHT join,都是左连接的。

  SELECT a.val1,a.val2, b.val, c.val

  FROM a

  JOIN b ON (a.key= b.key)

  LEFT OUTER JOINc ON (a.key = c.key)

先 join a 表到 b 表,丢弃掉全部join key 中不匹配的记录,然后用这一中间结果和 c 表做 join。这一表述有一个不太明显的问题,就是当一个 key 在 a 表和 c 表都存在,可是 b 表中不存在的时候:整个记录在第一次 join,即 a JOIN b 的时候都被丢掉了(包含a.val1,a.val2和a.key),然后我们再和 c 表 join 的时候,假设c.key 与 a.key 或 b.key 相等,就会得到这种结果:NULL, NULL, NULL, c.val。

hive regex insert join group cli的更多相关文章

  1. EF INNER JOIN,LEFT JOIN,GROUP JOIN

    IQueryable<TOuter>的扩展方法中提供了 INNER JOIN,GROUP JOIN但是没有提供LEFT JOIN GROUP JOIN适用于一对多的场景,如果关联的GROU ...

  2. Linq中join & group join & left join 的用法

    Linq中join & group join & left join 的用法 2013-01-30 11:12 12154人阅读 评论(0) 收藏 举报  分类: C#(14)  文章 ...

  3. 一起学Hive——总结各种Join连接的用法

    Hive支持常用的SQL join语句,例如内连接.左外连接.右外连接以及HiVe独有的map端连接.其中map端连接是用于优化Hive连接查询的一个重要技巧. 在介绍各种连接之前,先准备好表和数据. ...

  4. 字符串replaceAll()方法报错:java.util.regex.PatternSyntaxException:Unclosed group near index...

    Unclosed group near index错误 之前自己写的一个模块在项目上线后最近频频出现tomcat崩掉的情况,从log看出现如下的报错信息: java.util.regex.Patter ...

  5. [Oracle]In-Memory的Join Group 位于内存的何处?

    In-Memory的Join Group 的数据字典位于内存的何处? 有客户问到,使用Oracle 的In-Memory功能时,如果用到了 Join Group,那么这些这些Join Group,位于 ...

  6. hive 添加UDF(user define function) hive的insert语句

    add JAR /home/hadoop/study/study2/utf.jar; package my.bigdata.udf; import org.apache.hadoop.hive.ql. ...

  7. 解决Linq Join Group by 时报错:Nullable object must have a value.

    Linq Join Group by 时报Nullable object must have a value. 例如: from s in subject on ch.SubId equals s.S ...

  8. hive的Query和Insert,Group by,Aggregations(聚合)操作

    1.Query (1)分区查询 在查询的过程中,采用那个分区来查询是通过系统自动的决定,但是必须是在分区列上基于where子查询. SELECT page_views.* FROM page_view ...

  9. Hive:表1inner join表2结果group by优化

    问题背景 最近遇到一个比较棘手的事情:hive sql优化: lib表(id,h,soj,noj,sp,np)         --一个字典表 mitem表(md,mt,soj,noj,sp,np)- ...

随机推荐

  1. struts2 convention-plugin

    导入这个插件,该插件的作用是替换掉struts.xml 原则是没有配置,全是约定 基本步骤 1.新建HomeAction,里面有个execute方法return success,请求home.acti ...

  2. 链接分析算法之:HillTop算法

      链接分析算法之:HillTop算法     Hilltop算法是由Krishna Baharat 在2000年左右研究的,于2001年申请专利,但是有很多人以为Hilltop算法是由谷歌研究的.只 ...

  3. gcc/g++ 如何支持c11 / c++11标准编译

    如果用命令 g++ -g -Wall main.cpp  编译以下代码 : /* file : main.cpp */ #include <stdio.h> int main() { in ...

  4. BZOJ 1601 [Usaco2008 Oct]灌水

    1601: [Usaco2008 Oct]灌水 Time Limit: 5 Sec  Memory Limit: 162 MB Description Farmer John已经决定把水灌到他的n(1 ...

  5. 简单浮点数除法模拟-hdu-4493-Tutor

    题目链接: http://acm.hdu.edu.cn/showproblem.php?pid=4493 题目意思: 给小数点后两位的12个月的工资,求出平均工资,输出离小数点后第二位最近的两位小数, ...

  6. hdu4513之manacher算法

    吉哥系列故事——完美队形II Time Limit: 3000/1000 MS (Java/Others)    Memory Limit: 65535/32768 K (Java/Others) T ...

  7. 增进离岸Java开发效率的10个提示

    本文来源于我在InfoQ中文站原创的文章,原文地址是:http://www.infoq.com/cn/news/2013/12/10-tips-offshore-java-effective Cygn ...

  8. 查锁住的表,以及kill进程,Oracle常用语句

    --找出所有被锁的对象,定位出哪个回话占用 select l.session_id,o.owner,o.object_name from v$locked_object l,dba_objects o ...

  9. CentOS服务器下对mysql的优化

    原文链接: CentOS服务器下对mysql的优化 一.mysql的优化思路 mysql的优化分为两方面: 1. 服务器使用前的优化 2. 服务使用中的优化 二.mysql的基础优化步骤 1. 硬件级 ...

  10. 从零搭建LNMP环境

    Linux就是环境所在的操作系统: Nginx则是一个「高性能的HTTP和反向代理服务器」,官网地址:http://nginx.org/: MySQL则是一个方便地对数据进行增删改查的数据库管理系统, ...