本地一份包含有中文的文本文件在上传到hive前,需要先转化为UTF-8格式,否则会出现乱码。(notepad++ 格式>>>转化UTF-8编码格式)
 
--------------------------------------------------------------------------------------------------不带分区----------------------------------------------------------------------------------------------------------
不带分区的表创建:(换行符\n做行分割,制表符\t做列分割) 
drop table if exists SCAN.ZTO_SCAN_COME_TEST_WL; 
 create table SCAN.ZTO_SCAN_COME_TEST_WL
(
  USERNAME      string,
  USERID  string
)
ROW FORMAT DELIMITED  FIELDS TERMINATED BY '\t'  LINES TERMINATED BY '\n'  STORED AS TEXTFILE;
 
删除表数据: insert overwrite table ZTO_SCAN_COME_TEST_WL  select * from ZTO_SCAN_COME_TEST_WL where 1=0;
 
全量导入数据方式一:覆盖
insert overwrite table ZTO_SCAN_COME_TEST_WL
select '李磊'  as username,'1006' as userid from ZTO_SCAN_COME_MANSUM  limit 1
 
全量导入数据方式二:覆盖
 
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into  table ZTO_SCAN_COME_TEST_WL
 
增量导入数据方式一:添加
insert into table ZTO_SCAN_COME_TEST_WL
select '李磊1'  as username,'1007' as userid from ZTO_SCAN_COME_TEST_WL  limit 1
 
增量导入数据方式二:添加
 
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
into  table ZTO_SCAN_COME_TEST_WL
 
 
--------------------------------------------------------------------------------------------------带分区----------------------------------------------------------------------------------------------------------------
带分区的表创建:(换行符\n做行分割,制表符\t做列分割) 
drop table if exists SCAN.ZTO_SCAN_COME_TEST_WL; 
create table SCAN.ZTO_SCAN_COME_TEST_WL
(
  USERNAME      string,
  USERID  string
)
partitioned by(ds1 string,ds2 string)
ROW FORMAT DELIMITED  FIELDS TERMINATED BY '\t'  LINES TERMINATED BY '\n'  STORED AS TEXTFILE; 
 
删除某个分区数据:
ALTER TABLE ZTO_SCAN_COME_TEST_WL DROP IF EXISTS PARTITION (ds2='南京');
ALTER TABLE ZTO_SCAN_COME_TEST_WL DROP IF EXISTS PARTITION (ds1='20160902');
alter table ZTO_SCAN_COME_TEST_WL drop if  exists partition(ds1='20160902',ds2='北京');
 
注意:
1、带有分区的表数据插入时,必须指定到每个分区,一个不能少
2、带有分区的表数据删除时,至少指定一个分区即可
 
全量导入数据方式一:覆盖
insert overwrite table ZTO_SCAN_COME_TEST_WL  partition (ds1='20160901',ds2='上海') 
select '李磊'  as username,'1006' as userid from ZTO_SCAN_COME_MANSUM  limit 1;
 
insert overwrite table ZTO_SCAN_COME_TEST_WL  partition (ds1='20160901',ds2='南京') 
select '李磊'  as username,'1007' as userid from ZTO_SCAN_COME_MANSUM  limit 1;
 
全量导入数据方式二:覆盖
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into  table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='南京') 
 
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into  table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='泰州') 
 
增量导入方式一:添加
insert into table ZTO_SCAN_COME_TEST_WL  partition (ds1='20160901',ds2='上海') 
select '李磊'  as username,'1006' as userid from ZTO_SCAN_COME_MANSUM  limit 1;
 
增量导入方式二:添加
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
into  table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='南京') 

hive实践_01的更多相关文章

  1. 达观数据分析平台架构和Hive实践——TODO

    转自: http://www.infoq.com/cn/articles/hadoop-ten-years-part03 编者按:Hadoop于2006年1月28日诞生,至今已有10年,它改变了企业对 ...

  2. Hive实践(hive0.12)

    版本号:cdh5.0.0+hadoop2.3.0+hive0.12 一.原始数据: 1. 本地数据 [root@node33 data]# ll total 12936 -rw-r--r--. 1 r ...

  3. hive学习_01

    1.构建在Hadoop之上的数据仓库(数据计算使用MR,数据存储使用HDFS) 2.Hive定义了一种类SQL查询语言----HQL 3.通常用于进行离线数据处理(非实时) 4.一个ETL工具 5.可 ...

  4. DEVOPS技术实践_01:jenkins集成平台

    一.准备环境 准备三台机器 角色 IP地址 用户名 密码 jenkins-master   172.25.254.130    admin   meiyoumima gitlab 172.25.254 ...

  5. Hadoop生态系统—数据仓库Hive的安装

    一.数据仓库 数据仓库是一个面向主题的.集成的.随时间变化,但信息本身相对稳定的数据集合,相比于传统型数据库,它主要用于支持企业或组织的决策分析处理.主要有以下3个特点: 数据仓库是面向主题的: 数据 ...

  6. Impala 笔记

    简介 Cloudera公司推出,提供对HDFS.Hbase数据的高性能.低延迟的交互式SQL查询功能. 基于Hive使用内存计算,兼顾数据仓库.具有实时.批处理.多并发等优点 是CDH平台首选的PB级 ...

  7. 【转】Kylin实践之使用Hive视图

    http://blog.csdn.net/yu616568/article/details/50548967 为什么需要使用视图 Kylin在使用的过程中使用hive作为cube的输入,但是有些情况下 ...

  8. hive权限管理之实践

    一.实践心得 主要参考这个连接,里面说得也挺详细的.http://www.aboutyun.com/thread-12549-1-1.html 总结如下: 1.若赋予用户某个表的权限,查用户在该表所属 ...

  9. ETL实践--kettle转到hive

    ETL实践--kettle只做源数据的抽取,其他数据转换转到hive上. 1.用hive代替kettle的数据关联的原因 (1).公司之前的数据ELT大量使用了kettle.用kettle导原始数据速 ...

随机推荐

  1. C++ 部分STL

    map map可以理解为一个数组(但实质上并不是,只是方便理解),我们一般的数组不管定义成什么类型他的下标都是整型(int),map和这些数组的区别是他的下标可以是其他类型,由自己定义.map的创建. ...

  2. keepalive笔记之二:keepalive+nginx(自定义脚本实现,上述例子也可以实现)

    keepalive的配置文件 ! Configuration File for keepalived global_defs { notification_email { acassen@firewa ...

  3. Maven基本概念和操作

    最近在学Java,找来一个开源项目练手,它是用 Spring Boot 搭建的框架,于是去学 Spring Boot,然而 Spring Boot 需要有 Spring 框架和 Maven 的使用经验 ...

  4. Proto3:编码

    本文介绍protocol buffer消息二进制传输格式.在应用程序中使用protocol buffer时,你并不需要了解这些,但它对你了解protocol buffer格式如何影响你的编码消息的大小 ...

  5. Linux sed && awk

    sed sed -i '/exit 0/i\ip route add 10.0.0.0/8 via '$gateway_ip'' /etc/sysconfig/network-scripts/ifup ...

  6. cpupower frequency 无法设置userspace的问题

    Disable intel_pstate in grub configure file: $ sudo vi /etc/default/grub Append "intel_pstate=d ...

  7. Koa 学习

    中间件引擎 1234567891011121314151617181920212223242526272829303132333435363738 const Koa = require('koa') ...

  8. python爬虫所遇问题列举

    1.通过python socket库来构造请求报文,向服务器发送图片请求时 (1)图片在浏览器请求头中的remote address信息跟通过python socket输出远程连接地址和端口号不一致 ...

  9. Java基础:浅谈数据输入流/数据输出流《DataInputstream类与DataOutputstream类》

     一.理论概述 数据输入/输出流(DataInputStream类与DataOutputStream类) 允许应用程序以与机器无关的方式从底层输入流中读取基本Java数据类型. 说白了就是,当读取一个 ...

  10. mongoDb性能提升

    最近在弄MongoDB的时候 发现只按照官网的方式进行操作的话,性能不行,想着用单例模式封装一下,提升一下性能,代码如下: //引入mongodb相关的模块 const MongoClient = r ...