hive 测试
hive> use gamedw;
OK
Time taken: 0.049 seconds
hive> select current_database();
OK
gamedw
Time taken: 0.485 seconds, Fetched: 1 row(s)
scala> hivecon.sql("select * from gamedw.customers where city='shenzhen'").show
+--------+---+---+----+
|custname|sex|age|city|
+--------+---+---+----+
+--------+---+---+----+
scala> hivecon.sql("insert overwrite table customers partition(city='shenzhen') select custname,sex,age from customers where city='nanjing'").show
18/09/10 17:24:18 ERROR hdfs.KeyProviderCache: Could not find uri with key [dfs.encryption.key.provider.uri] to create a keyProvider !!
18/09/10 17:24:18 WARN hive.log: Updating partition stats fast for: customers
18/09/10 17:24:18 WARN hive.log: Updated size to 96
++
||
++
++
scala> hivecon.sql("select * from gamedw.customers where city='shenzhen'").show
+---------------+---+---+--------+
| custname|sex|age| city|
+---------------+---+---+--------+
|tianyt_touch100| 1| 50|shenzhen|
| wangwu| 1| 85|shenzhen|
| zhangsan| 1| 20|shenzhen|
| liuqin| 0| 56|shenzhen|
| wangwu| 0| 47|shenzhen|
| liuyang| 1| 32|shenzhen|
| hello| 0|100|shenzhen|
+---------------+---+---+--------+
scala> hivecon.sql("insert into table customers partition(city='shenzhen') select custname,sex,age from customers where city='nanjing'").show
18/09/10 17:25:44 WARN hive.log: Updating partition stats fast for: customers
18/09/10 17:25:44 WARN hive.log: Updated size to 192
++
||
++
++
hive> alter table customers drop partition(city='luohe');
Dropped the partition city=luohe
OK
Time taken: 0.541 seconds
hive> alter table account clustered by (platid) sorted by(dateid) into 100 buckets;
OK
Time taken: 0.433 seconds
hive> show create table account;
OK
createtab_stmt
CREATE TABLE `account`(
`accountname` bigint,
`accid` bigint,
`platid` int,
`dateid` int,
`createtime` string)
COMMENT 'Imported by sqoop on 2018/08/30 14:07:03'
CLUSTERED BY (
platid)
SORTED BY (
dateid ASC)
INTO 100 BUCKETS
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
WITH SERDEPROPERTIES (
'field.delim'='\u0001',
'line.delim'='\n',
'serialization.format'='\u0001')
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
'hdfs://localhost:9000/user/hive/warehouse/gamedw.db/account'
TBLPROPERTIES (
'last_modified_by'='root',
'last_modified_time'='1536573809',
'numFiles'='4',
'numRows'='0',
'rawDataSize'='0',
'totalSize'='3967930',
'transient_lastDdlTime'='1536573809')
Time taken: 0.25 seconds, Fetched: 32 row(s)
altere table .... archive partition会将这个分区的文件打成一个hadoop压缩包(har)文件,这样仅仅是降低文件数据,降低namenode的压力,而不会减少任何存储空间。
hive> set hive.archive.enabled=true;
hive> alter table customers archive partition(city='shenzhen');
intermediate.archived is hdfs://localhost:9000/user/hive/warehouse/gamedw.db/customers/city=shenzhen_INTERMEDIATE_ARCHIVED
intermediate.original is hdfs://localhost:9000/user/hive/warehouse/gamedw.db/customers/city=shenzhen_INTERMEDIATE_ORIGINAL
Creating data.har for hdfs://localhost:9000/user/hive/warehouse/gamedw.db/customers/city=shenzhen
in hdfs://localhost:9000/user/hive/warehouse/gamedw.db/customers/city=shenzhen/.hive-staging_hive_2018-09-10_18-09-33_034_2042188454765235088-1/-ext-10000/partlevel
Please wait... (this may take a while)
Moving hdfs://localhost:9000/user/hive/warehouse/gamedw.db/customers/city=shenzhen/.hive-staging_hive_2018-09-10_18-09-33_034_2042188454765235088-1/-ext-10000/partlevel to hdfs://localhost:9000/user/hive/warehouse/gamedw.db/customers/city=shenzhen_INTERMEDIATE_ARCHIVED
Moving hdfs://localhost:9000/user/hive/warehouse/gamedw.db/customers/city=shenzhen to hdfs://localhost:9000/user/hive/warehouse/gamedw.db/customers/city=shenzhen_INTERMEDIATE_ORIGINAL
Moving hdfs://localhost:9000/user/hive/warehouse/gamedw.db/customers/city=shenzhen_INTERMEDIATE_ARCHIVED to hdfs://localhost:9000/user/hive/warehouse/gamedw.db/customers/city=shenzhen
OK
Time taken: 6.035 seconds
hive 测试的更多相关文章
- 手把手教你搭建hadoop+hive测试环境(新手向)
本文由 网易云发布. 作者:唐雕龙 本篇文章仅限内部分享,如需转载,请联系网易获取授权. 面向新手的hadoop+hive学习环境搭建,加对我走过的坑总结,避免大家踩坑. 对于hive相关docke ...
- linux安装卸载MySQL以及密码设置+Hive测试
linux系统卸载MYSQL 1,先通过yum方式卸载mysql及相关组件 命令:yum remove mysql* 2.通过命令:rpm -qa|grep -i mysql 查找系统的有关于mysq ...
- 搭建sparksql的hive测试环境
sbt依赖 name := "Pi" version := "1.0" scalaVersion := "2.10.6" libraryDe ...
- Hive基础测试操作
一.Hive测试 1.查看数据库 show databases; 2.使用某个数据库,如默认数据库 user default; 3.创建表 create table if not exist itst ...
- Hive环境搭建及测试
前提条件:已经安装好如下软件 Eclipse4.5 hadoop-2.7.3 jdk1.7.0_79 此篇文章基于上一篇文章:zookeeper高可用集群搭建 什么是Hive? 1.Hive是一个基 ...
- Hive_初步见解,安装部署与测试
一.hive是什么东东 1. 个人理解 hive就是一个基于hdfs运行于MapReduce上的一个java项目, 这个项目封装了jdbc,根据hdfs编写了处理数据库的DDL/DML,自带的 二进制 ...
- cdh5.7权限测试示例
转载请注明出处:http://www.cnblogs.com/xiaodf/ 本文旨在展示CDH基于Kerberos身份认证和基于Sentry的权限控制功能的测试示例. 1. 准备测试数据 cat / ...
- Hive(五):hive与hbase整合
配置 hive 与 hbase 整合的目的是利用 HQL 语法实现对 hbase 数据库的增删改查操作,基本原理就是利用两者本身对外的API接口互相进行通信,两者通信主要是依靠hive_hbase-h ...
- hive部署手册
安装环境: 机器 只需要安装一台机器 操作系统:Ubuntu 11.04 64操作系统 hadoop:版本是1.0.2,安装在/usr/local/hadoop sun ...
随机推荐
- Windows Azure Virtual Machine (36) 扩展Azure ARM VM的磁盘大小
<Windows Azure Platform 系列文章目录> 在默认情况下,Azure ARM VM的操作系统磁盘(OS Disk),容量为: (1)Windows VM OS Disk ...
- 关于namespace的使用
#include <string> #include <pcl/io/pcd_io.h> #include <pcl/point_types.h> int main ...
- php 二维数组按照指定字段进行排序
$allItem = [ ["id"=>10,"updated_at"=>"2018-11-01"], ["id&qu ...
- 同台同时多开DELPHI2007的解决办法
Cannot create file "C:\Users\Administrator\AppData\Local\Temp\EditorLineEnds.ttr"这个问题的产生根据 ...
- 数据仓库专题(5)-如何构建主题域模型原则之站在巨人的肩上(二)NCR FS-LDM主题域模型划分
一.前言 分布式数据仓库模型的架构设计,受分布式技术的影响,很多有自己特色的地方,但是在概念模型和逻辑模型设计方面,还是有很多可以从传统数据仓库模型进行借鉴的地方.NCR FS-LDM数据模型是金融行 ...
- C# winForm中调用javascript文件中的方法
目前有很多的SNS社区或类SNS的网站,例如开心.51.校内等,但是发现大多数社区在邀请好友的时候都没有提供对QQ邮箱或者QQ空间好友列表获取的功能,不过似乎海内支持,但是网上相关QQ的文章还不是很多 ...
- 【ApplicationListener】Springboot各类事件监听器
Springboot中SpringApplicationEvent的种类 如下图: 主要包括6种: ApplicationEnvironmentPreparedListener Application ...
- 2.C++语言特性
一.普遍编程语言的特征 任何常用的编程语言都具备一组公共的语法特征,不同的语言仅在特征的细节上有所区别.所以,要想掌握一门语言,需要理解其语法特征的实现细节是第一步. 最基本的特征包括: ...
- vue-router总结2
在上一篇总结了vue-router中的路由切换.重定向和路由传参等知识,因为篇幅的原因,便将剩下的路由模块化.路由嵌套.history模式.路由守卫等放在这里来写了.因为是继续前面的写.所以代码也还是 ...
- 学习笔记之Introduction to Data Visualization with Python | DataCamp
Introduction to Data Visualization with Python | DataCamp https://www.datacamp.com/courses/introduct ...