本地一份包含有中文的文本文件在上传到hive前,需要先转化为UTF-8格式,否则会出现乱码。(notepad++ 格式>>>转化UTF-8编码格式)
--------------------------------------------------------------------------------------------------不带分区----------------------------------------------------------------------------------------------------------
不带分区的表创建:(换行符\n做行分割,制表符\t做列分割)
drop table if exists SCAN.ZTO_SCAN_COME_TEST_WL;
create table SCAN.ZTO_SCAN_COME_TEST_WL
(
USERNAME string,
USERID string
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' LINES TERMINATED BY '\n' STORED AS TEXTFILE;
删除表数据: insert overwrite table ZTO_SCAN_COME_TEST_WL select * from ZTO_SCAN_COME_TEST_WL where 1=0;
全量导入数据方式一:覆盖
insert overwrite table ZTO_SCAN_COME_TEST_WL
select '李磊' as username,'1006' as userid from ZTO_SCAN_COME_MANSUM limit 1
全量导入数据方式二:覆盖
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into table ZTO_SCAN_COME_TEST_WL
增量导入数据方式一:添加
insert into table ZTO_SCAN_COME_TEST_WL
select '李磊1' as username,'1007' as userid from ZTO_SCAN_COME_TEST_WL limit 1
增量导入数据方式二:添加
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
into table ZTO_SCAN_COME_TEST_WL
--------------------------------------------------------------------------------------------------带分区----------------------------------------------------------------------------------------------------------------
带分区的表创建:(换行符\n做行分割,制表符\t做列分割)
drop table if exists SCAN.ZTO_SCAN_COME_TEST_WL;
create table SCAN.ZTO_SCAN_COME_TEST_WL
(
USERNAME string,
USERID string
)
partitioned by(ds1 string,ds2 string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' LINES TERMINATED BY '\n' STORED AS TEXTFILE;
删除某个分区数据:
ALTER TABLE ZTO_SCAN_COME_TEST_WL DROP IF EXISTS PARTITION (ds2='南京');
ALTER TABLE ZTO_SCAN_COME_TEST_WL DROP IF EXISTS PARTITION (ds1='20160902');
alter table ZTO_SCAN_COME_TEST_WL drop if exists partition(ds1='20160902',ds2='北京');
注意:
1、带有分区的表数据插入时,必须指定到每个分区,一个不能少
2、带有分区的表数据删除时,至少指定一个分区即可
全量导入数据方式一:覆盖
insert overwrite table ZTO_SCAN_COME_TEST_WL partition (ds1='20160901',ds2='上海')
select '李磊' as username,'1006' as userid from ZTO_SCAN_COME_MANSUM limit 1;
insert overwrite table ZTO_SCAN_COME_TEST_WL partition (ds1='20160901',ds2='南京')
select '李磊' as username,'1007' as userid from ZTO_SCAN_COME_MANSUM limit 1;
全量导入数据方式二:覆盖
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='南京')
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='泰州')
增量导入方式一:添加
insert into table ZTO_SCAN_COME_TEST_WL partition (ds1='20160901',ds2='上海')
select '李磊' as username,'1006' as userid from ZTO_SCAN_COME_MANSUM limit 1;
增量导入方式二:添加
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
into table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='南京')
- 达观数据分析平台架构和Hive实践——TODO
转自: http://www.infoq.com/cn/articles/hadoop-ten-years-part03 编者按:Hadoop于2006年1月28日诞生,至今已有10年,它改变了企业对 ...
- Hive实践(hive0.12)
版本号:cdh5.0.0+hadoop2.3.0+hive0.12 一.原始数据: 1. 本地数据 [root@node33 data]# ll total 12936 -rw-r--r--. 1 r ...
- hive学习_01
1.构建在Hadoop之上的数据仓库(数据计算使用MR,数据存储使用HDFS) 2.Hive定义了一种类SQL查询语言----HQL 3.通常用于进行离线数据处理(非实时) 4.一个ETL工具 5.可 ...
- DEVOPS技术实践_01:jenkins集成平台
一.准备环境 准备三台机器 角色 IP地址 用户名 密码 jenkins-master 172.25.254.130 admin meiyoumima gitlab 172.25.254 ...
- Hadoop生态系统—数据仓库Hive的安装
一.数据仓库 数据仓库是一个面向主题的.集成的.随时间变化,但信息本身相对稳定的数据集合,相比于传统型数据库,它主要用于支持企业或组织的决策分析处理.主要有以下3个特点: 数据仓库是面向主题的: 数据 ...
- Impala 笔记
简介 Cloudera公司推出,提供对HDFS.Hbase数据的高性能.低延迟的交互式SQL查询功能. 基于Hive使用内存计算,兼顾数据仓库.具有实时.批处理.多并发等优点 是CDH平台首选的PB级 ...
- 【转】Kylin实践之使用Hive视图
http://blog.csdn.net/yu616568/article/details/50548967 为什么需要使用视图 Kylin在使用的过程中使用hive作为cube的输入,但是有些情况下 ...
- hive权限管理之实践
一.实践心得 主要参考这个连接,里面说得也挺详细的.http://www.aboutyun.com/thread-12549-1-1.html 总结如下: 1.若赋予用户某个表的权限,查用户在该表所属 ...
- ETL实践--kettle转到hive
ETL实践--kettle只做源数据的抽取,其他数据转换转到hive上. 1.用hive代替kettle的数据关联的原因 (1).公司之前的数据ELT大量使用了kettle.用kettle导原始数据速 ...
随机推荐
- C++ 部分STL
map map可以理解为一个数组(但实质上并不是,只是方便理解),我们一般的数组不管定义成什么类型他的下标都是整型(int),map和这些数组的区别是他的下标可以是其他类型,由自己定义.map的创建. ...
- keepalive笔记之二:keepalive+nginx(自定义脚本实现,上述例子也可以实现)
keepalive的配置文件 ! Configuration File for keepalived global_defs { notification_email { acassen@firewa ...
- Maven基本概念和操作
最近在学Java,找来一个开源项目练手,它是用 Spring Boot 搭建的框架,于是去学 Spring Boot,然而 Spring Boot 需要有 Spring 框架和 Maven 的使用经验 ...
- Proto3:编码
本文介绍protocol buffer消息二进制传输格式.在应用程序中使用protocol buffer时,你并不需要了解这些,但它对你了解protocol buffer格式如何影响你的编码消息的大小 ...
- Linux sed && awk
sed sed -i '/exit 0/i\ip route add 10.0.0.0/8 via '$gateway_ip'' /etc/sysconfig/network-scripts/ifup ...
- cpupower frequency 无法设置userspace的问题
Disable intel_pstate in grub configure file: $ sudo vi /etc/default/grub Append "intel_pstate=d ...
- Koa 学习
中间件引擎 1234567891011121314151617181920212223242526272829303132333435363738 const Koa = require('koa') ...
- python爬虫所遇问题列举
1.通过python socket库来构造请求报文,向服务器发送图片请求时 (1)图片在浏览器请求头中的remote address信息跟通过python socket输出远程连接地址和端口号不一致 ...
- Java基础:浅谈数据输入流/数据输出流《DataInputstream类与DataOutputstream类》
一.理论概述 数据输入/输出流(DataInputStream类与DataOutputStream类) 允许应用程序以与机器无关的方式从底层输入流中读取基本Java数据类型. 说白了就是,当读取一个 ...
- mongoDb性能提升
最近在弄MongoDB的时候 发现只按照官网的方式进行操作的话,性能不行,想着用单例模式封装一下,提升一下性能,代码如下: //引入mongodb相关的模块 const MongoClient = r ...