欢迎访问我的GitHub

https://github.com/zq2599/blog_demos

内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;

《hive学习笔记》系列导航

  1. 基本数据类型
  2. 复杂数据类型
  3. 内部表和外部表
  4. 分区表
  5. 分桶
  6. HiveQL基础
  7. 内置函数
  8. Sqoop
  9. 基础UDF
  10. 用户自定义聚合函数(UDAF)
  11. UDTF

本篇概览

  • 本文是《hive学习笔记》系列的第三篇,要学习的是各种类型的表及其特点,主要内容如下:
  1. 建库
  2. 内部表(也叫管理表或临时表)
  3. 外部表
  4. 表的操作

    接下来从最基本的建库开始

建库

  1. 创建名为test的数据库(仅当不存在时才创建),添加备注信息test database:
  1. create database if not exists test
  2. comment 'this is a database for test';
  1. 查看数据库列表(名称模糊匹配):
  1. hive> show databases like 't*';
  2. OK
  3. test
  4. test001
  5. Time taken: 0.016 seconds, Fetched: 2 row(s)
  1. describe database命令查看此数据库信息:
  1. hive> describe database test;
  2. OK
  3. test this is a database for test hdfs://node0:8020/user/hive/warehouse/test.db hadoop USER
  4. Time taken: 0.035 seconds, Fetched: 1 row(s)
  1. 上述命令可见,test数据库在hdfs上的存储位置是hdfs://node0:8020/user/hive/warehouse/test.db,打开hadoop的web页面,查看hdfs目录,如下图,该路径的文件夹已经创建,并且是以.db结尾的:



5. 新建数据库的文件夹都在/user/hive/warehouse下面,这是在中配置的,如下图红框:



6. 删除数据库,加上if exists,当数据库不存在时,执行该语句不会返回Error:

  1. hive> drop database if exists test;
  2. OK
  3. Time taken: 0.193 seconds

以上就是常用的库相关操作,接下来实践表相关操作;

内部表

  1. 按照表数据的生命周期,可以将表分为内部表和外部表两类;
  2. 内部表也叫管理表或临时表,该类型表的生命周期时由hive控制的,默认情况下数据都存放在/user/hive/warehouse/下面;
  3. 删除表时数据会被删除;
  4. 以下命令创建的就是内部表,可见前面两篇文章中创建的表都是内部表:
  1. create table t6(id int, name string)
  2. row format delimited
  3. fields terminated by ',';
  1. 向t6表新增一条记录:
  1. insert into t6 values (101, 'a101');
  1. 使用hadoop命令查看hdfs,可见t6表有对应的文件夹,里面的文件保存着该表数据:
  1. [hadoop@node0 bin]$ ./hadoop fs -ls /user/hive/warehouse/t6
  2. Found 1 items
  3. -rwxr-xr-x 3 hadoop supergroup 9 2020-10-31 11:14 /user/hive/warehouse/t6/000000_0
  1. 查看这个000000_0文件的内容,如下可见,就是表内的数据:
  1. [hadoop@node0 bin]$ ./hadoop fs -cat /user/hive/warehouse/t6/000000_0
  2. 101 a101
  1. 执行命令drop table t6;删除t6表,再次查看t6表对应的文件,发现整个文件夹都不存在了:
  1. [hadoop@node0 bin]$ ./hadoop fs -ls /user/hive/warehouse/
  2. Found 5 items
  3. drwxr-xr-x - hadoop supergroup 0 2020-10-27 20:42 /user/hive/warehouse/t1
  4. drwxr-xr-x - hadoop supergroup 0 2020-10-29 00:13 /user/hive/warehouse/t2
  5. drwxr-xr-x - hadoop supergroup 0 2020-10-29 00:14 /user/hive/warehouse/t3
  6. drwxr-xr-x - hadoop supergroup 0 2020-10-29 13:04 /user/hive/warehouse/t4
  7. drwxr-xr-x - hadoop supergroup 0 2020-10-29 16:47 /user/hive/warehouse/t5

外部表

  1. 创建表的SQL语句中加上external,创建的就是外部表了;
  2. 外部表的数据生命周期不受Hive控制;
  3. 删除外部表的时候不会删除数据;
  4. 外部表的数据,可以同时作为多个外部表的数据源共享使用;
  5. 接下来开始实践,下面是建表语句:
  1. create external table t7(id int, name string)
  2. row format delimited
  3. fields terminated by ','
  4. location '/data/external_t7';
  1. 查看hdfs文件,可见目录/data/external_t7/已经创建:
  1. [hadoop@node0 bin]$ ./hadoop fs -ls /data/
  2. Found 1 items
  3. drwxr-xr-x - hadoop supergroup 0 2020-10-31 12:02 /data/external_t7
  1. 新增一条记录:
  1. insert into t7 values (107, 'a107');
  1. 在hdfs查看t7表对应的数据文件,可以见到新增的内容:
  1. [hadoop@node0 bin]$ ./hadoop fs -ls /data/external_t7
  2. Found 1 items
  3. -rwxr-xr-x 3 hadoop supergroup 9 2020-10-31 12:06 /data/external_t7/000000_0
  4. [hadoop@node0 bin]$ ./hadoop fs -cat /data/external_t7/000000_0
  5. 107,a107
  1. 试试多个外部表共享数据的功能,执行以下语句再建个外部表,名为t8,对应的存储目录和t7是同一个:
  1. create external table t8(id_t8 int, name_t8 string)
  2. row format delimited
  3. fields terminated by ','
  4. location '/data/external_t7';
  1. 建好t8表后立即查看数据,发现和t7表一模一样,可见它们已经共享了数据:
  1. hive> select * from t8;
  2. OK
  3. 107 a107
  4. Time taken: 0.068 seconds, Fetched: 1 row(s)
  5. hive> select * from t7;
  6. OK
  7. 107 a107
  8. Time taken: 0.074 seconds, Fetched: 1 row(s)
  1. 接下来删除t7表,再看t8表是否还能查出数据,如下可见,数据没有被删除,可以继续使用:
  1. hive> drop table t7;
  2. OK
  3. Time taken: 1.053 seconds
  4. hive> select * from t8;
  5. OK
  6. 107 a107
  7. Time taken: 0.073 seconds, Fetched: 1 row(s)
  1. 把t8表也删掉,再去看数据文件,如下所示,依然存在:
  1. [hadoop@node0 bin]$ ./hadoop fs -cat /data/external_t7/000000_0
  2. 107,a107
  1. 可见外部表的数据不会在删除表的时候被删除,因此,在实际生产业务系统开发中,外部表是我们主要应用的表类型;

表的操作

  1. 再次创建t8表:
  1. create table t8(id int, name string)
  2. row format delimited
  3. fields terminated by ',';
  1. 修改表名:
  1. alter table t8 rename to t8_1;
  1. 可见修改表名已经生效:
  1. hive> alter table t8 rename to t8_1;
  2. OK
  3. Time taken: 0.473 seconds
  4. hive> show tables;
  5. OK
  6. alltype
  7. t1
  8. t2
  9. t3
  10. t4
  11. t5
  12. t6
  13. t8_1
  14. values__tmp__table__1
  15. values__tmp__table__2
  16. Time taken: 0.029 seconds, Fetched: 10 row(s)
  1. 添加字段:
  1. alter table t8_1 add columns(remark string);

查看表结构,可见已经生效:

  1. hive> desc t8_1;
  2. OK
  3. id int
  4. name string
  5. remark string
  6. Time taken: 0.217 seconds, Fetched: 3 row(s)

至此,咱们对内部表和外部表已经有了基本了解,接下来的文章学习另一种常见的表类:分区表;

你不孤单,欣宸原创一路相伴

  1. Java系列
  2. Spring系列
  3. Docker系列
  4. kubernetes系列
  5. 数据库+中间件系列
  6. DevOps系列

欢迎关注公众号:程序员欣宸

微信搜索「程序员欣宸」,我是欣宸,期待与您一同畅游Java世界...

https://github.com/zq2599/blog_demos

hive学习笔记之三:内部表和外部表的更多相关文章

  1. 大数据学习day26----hive01----1hive的简介 2 hive的安装(hive的两种连接方式,后台启动,标准输出,错误输出)3. 数据库的基本操作 4. 建表(内部表和外部表的创建以及应用场景,数据导入,学生、分数sql练习)5.分区表 6加载数据的方式

    1. hive的简介(具体见文档) Hive是分析处理结构化数据的工具   本质:将hive sql转化成MapReduce程序或者spark程序 Hive处理的数据一般存储在HDFS上,其分析数据底 ...

  2. hive 内部表和外部表的区别和理解

    1. 内部表 create table test (name string , age string) location '/input/table_data'; 注:hive默认创建的是内部表 此时 ...

  3. 【转】Hive内部表、外部表

    hive内部表.外部表区别自不用说,可实际用的时候还是要小心. 1. 内部表: create table tt (name string , age string) location '/input/ ...

  4. hive内部表、外部表

    hive内部表.外部表区别自不用说,可实际用的时候还是要小心. Hive的数据分为表数据和元数据,表数据是Hive中表格(table)具有的数据:而元数据是用来存储表的名字,表的列和分区及其属性,表的 ...

  5. hive 学习笔记——表的入门操作和命令

    1.受控表(managed table)包括内部表.分区表.桶表: 1.1.分区表 创建分区表: create table banji(id INT,name STRING) partitioned ...

  6. 一起学Hive——创建内部表、外部表、分区表和分桶表及导入数据

    Hive本身并不存储数据,而是将数据存储在Hadoop的HDFS中,表名对应HDFS中的目录/文件.根据数据的不同存储方式,将Hive表分为外部表.内部表.分区表和分桶表四种数据模型.每种数据模型各有 ...

  7. hive内部表、外部表、分区

    hive内部表.外部表.分区 内部表(managed table) 默认创建的是内部表(managed table),存储位置在hive.metastore.warehouse.dir设置,默认位置是 ...

  8. Hive创建内部表、外部表

    使用hive需要hive环境 启动Hive 进入HIVE_HOME/bin,启动hive ./hive 内部表 建表 hive> create table fz > (id int,nam ...

  9. hive 内部表与外部表的区别

    hive 内部表: hive> create table soyo55(name STRING,addr STRING,money STRING) row format delimited fi ...

随机推荐

  1. 面向对象JML系列作业总结

    面向对象JML系列作业总结 一.综述 本单元作业,由简到难地迭代式实现了三种JML需求,主要学习了面向规格的编程方法. 第一次:实现Path类和PathContainer类 第二次:继承PathCon ...

  2. Gradle的环境安装与配置

    本文是基于Windows环境对Gradle-6.6版本进行的安装配置. 简介 下载 安装 环境变量配置 开发工具配置 1.简介 Gradle是一个基于JVM的构建工具,是一款通用灵活的构建工具,支持m ...

  3. 7.CentOS文件和目录 以及系统与设置命令

    CentOS文件和目录 etc------系统中的配置文件 bin------系统预设执行文件的放置目录 sbin------系统预设执行文件的放置目录 usr------系统预设执行文件的放置目录 ...

  4. Linux压力测试软件Stress安装及使用指南2

    stress工具使用指南和结果分析 Linux压力测试软件Stress安装及使用指南     一.Stress是什么 stress是一个linux下的压力测试工具,专门为那些想要测试自己的系统,完全高 ...

  5. Python检查 文件备份是否正常 云备份进程是否正常运行

    场景:服务器自动备份数据库文件,每两小时生成一个新备份文件,通过云备份客户端自动上传,需要每天检查是否备份成功. 实现:本脚本实现检查文件是否备份成功,进程是否正常运行,并且发送相关邮件提醒. #! ...

  6. 9.random_os_sys_shutil_shelve_xml_hashlib

    此章未能精读,待回顾random模块import randomrandom.random() 随机生成一个0-1之间随机的浮点数random.randint(a,b) 随机生成一个a-b之间的整数 a ...

  7. linux系统ifconfig中网卡名和网卡配置文件名称不同的解决办法

    比如我的配置文件, cd /etc/sysconfig/network-scripts/ifcfg-eth1是这个名称,但是我使用ifconfig显示的信息却是 eth0,很明显这不是我配置文件的名称 ...

  8. Navicat注册机报错No all pattern found! file already patched

    第一步:先把注册机放入安装目录. (这一步非常关键,先不要打开桌面上安装好的快捷方式!!) 第二步:如果之前下载过,把注册表清理干净 计算机\HKEY_CURRENT_USER\SOFTWARE\Pr ...

  9. Spring Mvc Long类型精度丢失

    背景 在使用Spring Boot Mvc的项目中,使用Long类型作为id的类型,但是当前端使用Number类型接收Long类型数据时,由于前端精度问题,会导致Long类型数据转换为Number类型 ...

  10. GO语言常用标准库04---flag读取命令行参数

    package main import ( "flag" "fmt" "math" "os" ) /* go build ...