Hive 官方手册翻译 -- Hive Transactions (Hive 事务)
由 Alan Gates创建, 最终由 Andrew Sherman修改于2018年8月7日
原文链接:https://cwiki.apache.org/confluence/display/Hive/Hive+Transactions
翻译:Google Google翻译,金山软件 金山词霸
校对:南大通用 范振勇 (如有翻译问题,请多指教)
一、Hive 3的警告
升级到Hive 3.0时,由之前版本创建的任何事务性表都需要在每个分区上运行Major(主要/深度)级紧缩操作。更确切地说,自上一次Major级紧缩操作之后,在其上执行任何Update/Delete/Merge语句的分区,都必须再进行一次Major级紧缩操作。就是说,在Hive升级到Hive 3之前,此分区上不会发生任何Update/Delete/Merge操作。
二、什么是ACID,为什么要使用ACID呢?
ACID代表了数据库事务的四个特征:原子性(一个操作要么完全成功,要么失败,绝不会留下部分数据) 、一致性(一旦应用程序执行了一个操作,该操作的结果在它以后的每个操作中都是可见的)、隔离性(一个用户未完成的操作不会对其他用户造成意外影响),以及持久性(一旦一个操作完成,它将保持下来,即便面对机器故障或系统故障)。一直以来,这些特性被认为是数据库系统事务功能的一部分。
截止到 0.13,Hive都只提供分区级别的原子性、一致性和持久性。可以通过打开一种可用的锁机制(Zookeeper或内存)来提供隔离性。随着在Hive 0.13中添加事务,现在可以在行级别提供完整的ACID语义,这样一个应用程序就可以在另一个应用程序读取同一个分区时添加行,而不会相互干扰。
Hive中添加ACID语义事务的特性,可以解决以下用例:
- 流数据的采集。许多用户使用如Apache Flume,Apache Storm,或Apache Kafka等工具,将数据流到自己的Hadoop集群。尽管这些工具可以每秒数百行或更多行的速度写入数据,但Hive只能每十五分钟到一小时的添加分区。更短间隔的添加分区会导致表中出现大量的分区。这些工具可以将数据流到现有的分区中,但这将导致读操作产生脏读(也就是说,能看到在启动查询后会写入的数据),并在目录中留下许多小文件,这将给NameNode带来压力。使用此事务功能,将支持此场景,同时保证读操作获得一致的数据视图,并避免过多的文件。
- 缓慢变化的维度(表)。在典型的星型模型的数据仓库中,维度表随着时间的推移变化很缓慢。例如,零售商开设新的商店,这些商店需要添加到商店表中,或者现有的商店可能会改变面积或其他可跟踪的特性。这些更改会导致插入单个记录或更新记录(取决于所选择的策略)。从0.14开始,Hive能够支持这一点。
- 数据重述(译注:财务术语,类似“调帐”)。有时,收集的数据被认为是不正确的,需要修正。或数据的第一个实例可能是近似值(90%的服务报告),随后提供了完整数据。或业务规则可能要求因为随后的交易进行重述某些交易(例如,在购物之后,客户可以购买成员资格,因此有权享受折扣价格,包括在先前的购买记录)。或者用户可以根据合同约定在他们关系的结束时消除其客户的数据。从Hive0.14开始,这些用例可以通过INSERT,UPDATE和DELETE来支持。
- 使用SQL MERGE语句实现批量更新。
三、限制
- 所有DML操作都是自动提交,尚不支持BEGIN,COMMIT,和ROLLBACK,计划在将来的版本中支持这些特性。
- 在第一个版本中只支持ORC文件格式。构建事务特性的初衷是可以使用任何存储格式,只要这些存储格式可以确定如何更新或删除基本记录(基本上,具有显式或隐式的行id即可),但到目前为止,仅完成针对ORC的集成工作。
- 默认情况下,事务被配置为OFF。有关配置值的讨论,请参见下面的配置部分。
- 要使用事务特性,表必须分桶。在同一系统中的不使用事务和ACID的表则无需分桶。外部表不能成为ACID表,因为外部表上的更改超出了紧缩器的控制范围(hive-13175)。
- 不允许从非ACID的会话中读取/写入ACID表。换句话说,要操作ACID表,必须将Hive事务管理器设置为org.apache.hadoop.hive.ql.lockmgr.DbTxnManager。
- 现在只支持快照隔离级别。当一个给定的查询启动时,它会提供该数据的一致快照。不支持脏读(READ UNCIMMITTED)、提交读(READ COMMITTED)、可重复读(REPEATABLE READ)或可序列化(SERIALIZABLE)。引入BEGIN的目的是在事务持续时间内支持快照隔离,而不仅仅是一个查询。根据用户请求,还可以添加其他隔离级别。
- 现有的ZooKeeper和内存锁管理器与事务不兼容。我们无意处理这个问题。有关如何为事务存储锁的讨论,请参阅下面的基本设计。
- 原来ACID表不支持使用ALTER TABLE更改Schema,参见Hive-11421。此缺陷于Hive 1.3.0/ Hive 2.0.0修复成功。
- 使用Oracle作为Metastore DB和“datanucleus.connectionPoolingType = BONECP”时,可能偶发性产生 “No such lock ...”和“No such transaction...”的错误。在这种情况下,建议设置“datanucleus.connectionPoolingType = DBCP”。
- LOAD DATA ...语句不支持事务性表,直到Hive-16732才能正确执行。
四、流式API
Hive提供了流数据采集和流式转换的API:
Hive流API(从Hive 3开始)
HCatalog流式转换API(在Hive2.0.0及更高版本)
API的比较可参考流式转换文档的背景部分。
五、语法变化
1.从Hive0.14开始,INSERT … VALUES,UPDATE和DELETE已被添加到SQL语法。详见 Language Manual DML。
2.一些新的命令已经添加到Hive的DDL中,以支持ACID和事务,另外一些修改了现有的DDL语句。
2.1加入一个新命令SHOW TRANSACTIONS,详见Show Transactions。
2.2加入一个新命令SHOW COMPACTIONS,详见 Show Compactions。
2.3改变了SHOW LOCKS命令,以便提供锁与事务相关的信息。如果您使用的是Zookeeper或内存锁管理器,你会发现这个命令的输出并无差别。详见Show Locks。
2.4 ALTER TABLE添加了一个新的选项,用于表或分区的紧缩。在一般情况下,用户不需要请求紧缩,因为系统会检测紧缩的需求并开始执行紧缩。但是,如果关闭了表的紧缩功能,或者用户希望在系统没选择的情况下紧缩表,则可以使用ALTER TABLE启动紧缩。详见 Alter Table/Partition紧缩,这将任务放到紧缩排队等待后返回。用户可以使用SHOW COMPACTIONS查看紧缩的进度。
3.添加一个新命令终止事务:ABORT TRANSACTIONS,详见Abort Transactions。
六、基本设计
HDFS不支持文件的就地更改.对于追加写的文件,它也不为用户不提供读取的一致性。为了在HDFS之上提供这些特性,我们遵循了在其他数据仓库工具中使用的标准方法。表或分区的数据存储在一组基本文件中。新记录、更新和删除的记录存储在增量文件中。每个事务(或者是流代理(如Flume或Storm)的每个批事务)都创建了一组新的增量文件,以更改表或分区。在读取时,合并基础文件和增量文件并应用更新和删除的变化。
6.1、 基础目录和增量目录
以前,分区(或者表,如果该表未分区的话)的所有文件都存放在一个目录中。现在更改后,任何使用ACID更改的分区(或表)都将有一个用于基本文件的目录和一个用于每个增量文件集的目录。对于未分区的表“t”,其目录布局如下所示:
表“T”在文件系统的布局
hive> dfs -ls -R /user/hive/warehouse/t;
drwxr-xr-x - ekoifman staff -- : /user/hive/warehouse/t/base_0000022
-rw-r--r-- ekoifman staff -- : /user/hive/warehouse/t/base_0000022/bucket_00000
drwxr-xr-x - ekoifman staff -- : /user/hive/warehouse/t/delta_0000023_0000023_0000
-rw-r--r-- ekoifman staff -- : /user/hive/warehouse/t/delta_0000023_0000023_0000/bucket_00000
drwxr-xr-x - ekoifman staff -- : /user/hive/warehouse/t/delta_0000024_0000024_0000
-rw-r--r-- ekoifman staff -- : /user/hive/warehouse/t/delta_0000024_0000024_0000/bucket_00000
6.2、 紧缩器
紧缩器是一套Metastore内运行,支持ACID系统的后台进程。它由Initiator(发起者),Worker,Cleaner,AcidHouseKeeperService和其他几部分组成。
6.2.1、 增量文件紧缩
随着表的修改操作,创建了越来越多的增量文件,就需要紧缩以保持足够的性能。有两种类型的紧缩,次要和主要:
次要/轻度/minor紧缩处理一组现有的增量文件,针对每个桶,将它们重写为单个的增量文件。
主要/深度/major紧缩处理一个或多个桶的增量文件和基本文件,并将它们重写为每个桶新的基本文件。主要紧缩成本更高,但更有效。
所有紧缩都是在后台完成的,不会阻止数据的并发读、写。紧缩后,系统将等待所有旧文件的读操作完成后,删除旧文件。
6.2.1.1、 Initiator(发起者)
这个模块负责发现哪些表或分区需要紧缩。需要在Metastore中配置参数hive.compactor.initiator.on启用该模块,在“事务的新配置参数”中有几个形式为*.threshold的属性,控制何时创建紧缩任务以及执行哪种类型的紧缩。每个紧缩任务处理一个分区(如果表未分区,则处理整个表)。如果给定分区的连续紧缩失败次数超过hive.compactor.initiator.failed.compacts.threshold,则该分区的自动紧缩调度将停止。有关更多信息,请参见配置参数表。
6.2.1.2、 Worker
每个Worker处理单个紧缩任务。紧缩任务是一个MapReduce的作业,其名称形式如下:<hostname>-compactor-<db>.<table>.<partition>。每个Worker向集群提交作业(如果定义了hive.compactor.jobs.queue)到Yarn队列,并等待作业完成。hive.compactor.worker.threads确定每个Metastore中的Worker数量。Hive数据仓库中的Worker总数决定了紧缩的最大并发数量。
6.2.1.3、 Cleaner
就是在紧缩后,确定不再需要增量文件之后删除增量文件的进程。
6.2.1.4、 AcidHouseKeeperService
此进程查找在hive.txn.timeout时间内没有心跳的事务,并中止它们。系统假设此时启动事务的客户端停止心跳、崩溃,而它锁定的资源应该被释放。
6.2.1.5、 SHOW COMPACTIONS
此命令显示有关当前正在运行的紧缩和紧缩的近期历史记录(可配置保留期限)信息。从hive-12353开始,可显示紧缩的历史记录信息。
关于此命令和输出的更多信息,可参阅 LanguageManual DDL#Show Compactions。影响该命令的输出的参数见“事务新的配置参数/紧缩历史记录”配置属性。系统保留每种类型的最后N个条目:失败、成功、尝试(其中N对每种类型都是可配置的)。
6.3、 事务/锁管理器
Hive添加了一个名为“事务管理器”的新逻辑概念,它包含了以前的“数据库/表/分区锁管理器”的概念(hive.lock.Manager,缺省值为org.apache.hadoop.hive.ql.lockmgr.zookeeper.ZooKeeperHiveLockManager)。事务管理器现在还负责管理事务锁。默认的DummyTxnManager模仿老Hive版本的行为:没有事务,并使用hive.lock.Manager属性为表、分区和数据库创建锁管理器。新添加的DbTxnManager使用DbLockManager管理Hive Metastore中的所有锁/事务(事务和锁在服务器故障时是持久的)。这意味着在启用事务时,不再存在以前锁定Zookeeper中的行为了。为了避免客户端死掉并使事务或锁悬而未决,定期从锁持有者和事务发起者向Metastore发送心跳。如果在配置的时间内未接收到心跳,则锁或事务将被中止。
从Hive 1.3.0开始,DbLockManger可以通过控制hive.lock.numretires和hive.lock.sleep.between.retries来设定尝试获取锁的时间。当DbLockManager无法获得锁(由于存在竞争锁)时,它将退出,并在某个时间段后再试。为了支持短时间运行的即席查询,而又不对Metastore压力太大,每次重试之后,DbLockManager将等待时间加倍。初始回退时间为100 ms,并以hive.lock.sleep.between.retries为上限。hive.lock.numretries是它将重试请求锁的总次数。因此,调用获取锁将阻塞的总时间(给定100次重试和60次睡眠时间)是(100 ms 200 ms 400 ms.51200 ms 60s ..60s)=91分钟:42秒:300毫秒。
锁管理器中使用的锁的详细信息见Show locks。
请注意,使用DbTxnManager的锁管理器将获取所有表上的锁,即使是那些没有设置“transactional=true”属性的表。默认情况下,对非事务性表的INSERT操作将获得独占锁,从而阻止其他插入和读取。虽然在技术上是正确的,但这与传统Hive的工作方式(例如,w/o 锁管理器)是不同的, 为了向后兼容,提供了hive.txn.strict.locking.mode(见下表)模式,这将使该锁管理器在非事务性表的插入操作上获取共享锁。这恢复了以前的语义,同时仍然提供了锁管理器的好处,例如在读取表时防止表被删除。
请注意,对于事务表,插入总是获取共享锁,因为这些表在存储层实现了MVCC架构,并且即使存在并发修改操作,也能提供读的强一致性(快照隔离)。
七、配置参数
必须设置这些配置参数的适当值,才能最低限度的打开Hive中的事务支持:
客户端
hive.support.concurrency - true
hive.enforce.bucketing - true(从Hive2.0不再需要)
hive.exec.dynamic.partition.mode - nonstrict
hive.txn.manager - org.apache.hadoop.hive.ql.lockmgr.DbTxnManager
服务器端(Metastore)
hive.compactor.initiator.on - true(参见下面表格有详细介绍)
hive.compactor.worker.threads -至少在一个metastore Thrift服务的实例设置为正数
以下部分列出了所有影响Hive事务和紧缩的配置参数。另见上方的“限制”和下面的“表属性”。
7.1、 事务的新配置参数
许多新的配置参数已经被添加到系统,用以支持事务。
配置关键 |
默认值 |
位置 |
注解 |
见注解 |
客户端/ |
默认值: 支持事务所需的值: 而DummyTxnManager实现Hive 0.13前的行为,并且不提供事务支持。 |
|
true |
客户端/ HiveServer2 |
在严格模式非ACID资源使用标准的R / W锁语义,例如INSERT将获得排他锁;在非严格模式,对于非ACID资源,INSERT将只获取共享锁,它允许两个并发写入到相同的分区,但仍让锁管理器在表被写入时阻止DROP TABLE等(从Hive 2.2.0)。 |
|
300 |
客户端/ |
如果客户没有发送心跳,多长时间(单位秒)之后宣布事务中止。对于所有组件/服务,至关重要的是此属性要有相同的值。(注5) |
|
5 |
客户端/ HiveServer2 |
用于心跳的线程数(从Hive 1.3.0和2.0.0开始)。 |
|
100秒 |
Metastore |
Metastore启动后,启动第一个收割器(中止超时事务的进程)的延迟时间(从Hive |
|
180秒 |
Metastore |
描述收割程序(中止超时事务的进程)运行频率的时间间隔。(从Hive 0.13开始)。用于控制上述的AcidHouseKeeperServcie。 |
|
1000 |
客户 |
可以在调用一次open_txns()获取到事务的最大数量。(注1) |
|
100000 |
HiveServer2 /Metastore |
打开的事务的最大数量。如果当前打开的事务达到此限制,则将来打开的事务请求将被拒绝,直到该数目低于限制为止。(从Hive 1.3.0和2.1.0) |
|
1秒 |
HiveServer2 /Metastore |
检查打开事务计数的时间间隔(单位秒)(从Hive 1.3.0和2.1.0开始)。 |
|
“”(空字符串) |
HiveServer2 /Metastore |
由逗号分隔的一组用于描述SQL状态,错误代码,可重试的SQLExceptions错误信息的正则表达式,这是适合于Hive Metastore数据库(从Hive 1.3.0和2.1.0)。 例子见配置属性。 |
|
false |
Metastore |
缺省值为false,支持事务的话需要为true。 是否在此Metastore实例上运行启动器(initiator)和清理(cleaner)的线程。在Hive1.3.0之前,关键是要正好在一个独立的Metastore服务实例上启用它(尚未强制执行)。从Hive1.3.0开始,可以在任意数量的独立Metastore实例上启用此属性。 |
|
0 |
Metastore |
在这个metastore实例上运行多少个紧缩工作线程。(注2) 默认值为0,支持事务时至少在一个Metastore实例上大于0。 |
|
86400 |
Metastore |
紧缩作业运行多长时间(秒)后会被宣告失败,并重新排队。 |
|
5000 |
Metastore |
运行清理线程的间隔(毫秒)。(Hive 0.14.0和更高版本)。 |
|
300 |
Metastore |
检查表或分区是否需要紧缩的时间间隔(单位秒)。(注3) |
|
10 |
Metastore |
在表或分区引发次要/轻度/minor紧缩的差量目录数目。 |
|
0.1 |
Metastore |
触发一个主要/深度/major紧缩任务的增量文件相对基础文件大小的百分比。1 = 100%,默认0.1 = 10%。 |
|
1000 |
Metastore |
触发一个主要/深度/major紧缩任务的涉及给定表或分区的中止事务数。 |
|
500 |
Metastore |
在单个紧缩作业中试图处理增量文件的最大数量(从Hive1.3.0开始)。(注4) |
|
“”(空字符串) |
Metastore |
用于指定将提交紧缩作业到Hadoop队列的名称。设置为空字符串,则由Hadoop选择队列(从Hive1.3.0开始)。 |
|
紧缩的历史记录 |
|||
hive.compactor.history.retention.succeeded |
3 |
Metastore |
要在历史记录中保留的成功紧缩条目的数量(每个分区)。 |
hive.compactor.history.retention.failed |
3 |
Metastore |
要在历史记录中保留的紧缩失败条目的数量(每个分区)。 |
hive.compactor.history.retention.attempted |
2 |
Metastore |
要在历史记录中保留的尝试紧缩条目的数量(每个分区)。 |
hive.compactor.initiator.failed.compacts.threshold |
2 |
Metastore |
对给定分区紧缩连续失败的数目,在此之后,启动器(Initiator)将停止自动调度紧缩。此时,仍然可以使用ALTER TABLE来启动紧缩。一旦手动启动的紧缩成功,就恢复自动启动的紧缩。 请注意,这个值必须小于hive.compactor.history.retention.failed。 |
hive.compactor.history.reaper.interval |
2M |
Metastore |
控制清除compactions历史记录的进程多久运行一次。 |
注1:
hive.txn.max.open.batch控制流代理(如Flume或Storm)同时打开的事务。然后,流代理将该数量的条目写入单个文件(每个Flume代理或Storm bolt)。因此,增加此值会减少流代理创建的增量文件的数量。但它也会增加Hive在任何给定时间必须跟踪的已打开事务的数量,这可能会对读取性能产生负面影响。
注2:工作线程生成MapReduce作业以执行紧缩。它们自己不执行紧缩。增加工作者线程的数量将减少需要紧缩的表或分区的时间。它也将增加Hadoop集群上的后台负载,因为更多MapReduce作业要在后台运行。每次紧缩都可以处理一个分区(如果没有分区,则是整个表)。
注3: 减小该值将减少需要紧缩的表或分区启动紧缩所需的时间。然而,检查是否需要紧缩需要对每个表或分区调用NameNode,以确认每个表或分区自上一次主要/深度/major紧缩以来是否进行了事务处理。因此,降低此值将增加NameNode的负载。
注4: 如果紧缩程序检测到有非常多的增量文件,它就首先运行几个小的部分紧缩(在当前顺序中),然后执行实际请求的紧缩。
注5: 如果该值不是相同的,则活动事务可能被确定为“timed out(超时)”并因此中止。这还将导致诸如“没有这样的事务(No such transaction)...”、“没有这样的锁(No such
lock)...”之类的错误。
7.2、 为INSERT,UPDATE,DELETE设置的参数
除了上面列出的新参数,现有的一些为支持INSERT ... VALUES,UPDATE 和 DELETE需要而设置的参数。
hive.support.concurrency true(默认为false)
hive.enforce.bucketing true(默认为false)(从Hive2.0不再需要)
hive.exec.dynamic.partition.mode nonstrict不严格的(默认为strict严格的)
7.3、 为紧缩设置的参数
如果您的系统中的数据不属于Hive用户(即运行Hive
Metastore的用户),那么Hive需要以数据拥有者的身份运行才能执行紧缩操作。如果您已经设置了HiveServer 2模拟用户,那么唯一要做的额外工作就是确保Hive在运行Hive Metastore的主机上有模拟用户的权利。这是通过将主机名添加到Hadoop的core-site.xml文件中的hadoop.proxyuser.hive.host实现的,如果您还没有这样做,那么需要配置Hive作为代理用户,这要求您为运行Hive Metastore的用户设置keytab,并将hadoop.proxyuser.hive.host和hadoop.proxyuser.hive.group添加到Hadoop的core-site.xml文件中。
请参阅您的Hadoop版本中关于安全模式的Hadoop文档(例如,对于Hadoop2.5.1,请参阅Hadoop的安全模式)。
八、表属性
从Hive 0.14.0开始,如果一个表用于ACID写入(INSERT、UPDATE、DELETE),那么必须在该表中设置表属性“transactional=true”。注意,一旦表已被经由TBLPROPERTIES(“transactional=true”)定义为ACID表,它不能被转换回非ACID表,即不允许改变为TBLPROPERTIES(“transactional=false”)。此外,在运行任何查询之前,必须在hive-site.xml或会话开始时将hive.txn.Manager设置为org.apache.hadoop.hive.ql.lockmgr.DbTxnManager。如果不这样的话,插入将以旧的样式进行;更新和删除将在hive-11716之前被禁止。因为不允许在没有DbTxnManager的ACID表上进行Hive-11716操作。无论如何,这也不适用于Hive 0.13.0。
如果表所有者不希望系统自动确定何时紧缩,则可以设置表属性“NO_AUTO_COMPACTION”。这将阻止所有自动紧缩。仍然可以使用ALTER
Table /Partition Compact语句进行手动紧缩。
在创建或更改表时,使用TBLPROPERTIES子句设置表属性,如Hive数据定义语言的CREATE Table和ALTER
Table PROPERTIES部分所述。在Hive版本0.x和1.0中,表属性“transactional”和“NO_AUTO_COMPACTION”区分大小写,但从版本1.1.0(hive-8308)开始,它们是不区分大小写的。
更多的与紧缩相关的选项可以通过与Hive
1.3.0和2.1.0的TBLPROPERTIES来设置。它们可以通过CREATE TABLE设置在表级别属性,也可以通过ALTER TABLE/Partition
COMPACT在请求级别上设置。
这些用于覆盖仓库/表范围的设置。例如,要覆盖MR属性以影响紧缩作业,可以在CREATE TABLE语句中或通过ALTER TABLE显式启动紧缩时,添加"compactor.<mr property name>=<value>"。这里所述的" <mr property name>=<value>"将设置在紧缩MR作业的Jobconf上。类似地,"
tblprops.<prop name>=<value>"可用于设置/覆盖集群上所能解释的任何表属性代码。最后," compactorthreshold.<prop name>=<value>"可用于替代来自"新的事务配置参数"中以".threshold"结尾的属性,在由系统触发compact时进行控制。
示例:
例如:在TBLPROPERTIES中设置表级别的紧缩选项
CREATE TABLE table_name (
id int,
name string
)
CLUSTERED BY (id) INTO 2 BUCKETS STORED AS ORC
TBLPROPERTIES ("transactional"="true",
"compactor.mapreduce.map.memory.mb"="2048", -- 指定紧缩map作业的属性
"compactorthreshold.hive.compactor.delta.num.threshold"="4", -- 如果有超过4个增量目录,则触发轻度紧缩
"compactorthreshold.hive.compactor.delta.pct.threshold"="0.5" -- 如果增量文件的大小与基础文件的大小的比率大于50%,则触发深度紧缩
);
例如:在TBLPROPERTIES中设置请求级别的紧缩选项
ALTER TABLE table_name COMPACT 'minor'
WITH OVERWRITE TBLPROPERTIES ("compactor.mapreduce.map.memory.mb"="3072"); -- 指定紧缩map作业的属性 ALTER TABLE table_name COMPACT 'major'
WITH OVERWRITE TBLPROPERTIES ("tblprops.orc.compress.size"="8192"); -- 更改任何其他Hive表属性
Hive 官方手册翻译 -- Hive Transactions (Hive 事务)的更多相关文章
- Hive 官方手册翻译 -- Hive DDL(数据定义语言)
Hive DDL(数据定义语言) Confluence Administrator创建, Janaki Lahorani修改于 2018年9月19日 原文链接 https://cwiki.apache ...
- Hive官方手册翻译(Getting Started)
翻译Hive官方文档系列,文中括号中包含 注: 字样的,为我自行标注的,水平有限,翻译不是完美无缺的.如有疑问,请参照Hive官方文档对照查看. 内容列表 Cloudera制作的Hive介绍视频 ...
- Hive官方手册翻译(Getting Started)(转)
原文:http://slaytanic.blog.51cto.com/2057708/939950 翻译Hive官方文档系列,文中括号中包含 注: 字样的,为我自行标注的,水平有限,翻译不是完美无缺的 ...
- Hive 官方手册翻译 -- Hive DML(数据操纵语言)
由 Confluence Administrator创建, 最终由 Lars Francke修改于 八月 15, 2018 原文链接 https://cwiki.apache.org/confluen ...
- MariaDB官方手册翻译
MariaDB官方手册 翻译:create database语句(已提交到MariaDB官方手册) 翻译:rename table语句(已提交到MariaDB官方手册) 翻译:alter table语 ...
- Swift编程语言(中文版)官方手册翻译(进度8.8%)
翻译着玩,进度会比较慢. 等不及的可以看CocoaChina翻译小组,他们正在组织翻译,而且人手众多,相信会提前很多完成翻译. 原文可以在iTunes免费下载 目前进度 7 JUN 2014: 8.8 ...
- 《awk中文手册》-本人参考官方手册翻译
01. 简介 AWK是一个文本(面向行和列)处理工具,同时它也是一门脚本语言. AWK其名称得自于它的创始人 Alfred Aho .Peter Weinberger 和 Brian Kernigha ...
- 【Bochs 官方手册翻译】 第一章 Bochs介绍
Bochs 是一个可以完全模拟 Intel x86 计算机的虚拟机系统.它包含了 Intel x86 CPU 仿真.常见设备仿真.以及定制 BIOS.Bochs 可以虚拟多种不同类型的 x86 CPU ...
- Hive 口袋手册
2019-04-01 关键字:Hive 学习总结.Hive 基础 . Hive 进阶 .Hive 调优 . Hive 入门手册.Hive PDF 下载 本篇文章系本人就目前所掌握的知识对 Apache ...
随机推荐
- Go 语言基础——变量常量的定义
go语言不支持隐式类型转换,别名和原有类型也不能进行隐式类型转换 go语言不支持隐式转换 变量 变量声明 var v1 int var v2 string var v3 [10]int // 数组 v ...
- 计时器Chronometer
布局文件很简单 <Chronometer android:id="@+id/test" android:layout_width="wrap_content&quo ...
- Python集训营45天—Day03
目录 1. 分支结构 1.1 初步介绍 1.2 使用案例 1.3 练习 2.循环结构 1.1 初步介绍 1.2 使用案例 1. 分支结构 1.1 初步介绍 至今,我们所写的Python代码都是顺序执行 ...
- hbase shell命令及Java接口介绍
一. shell命令 1. 进入hbase命令行 ./hbase shell 2. 显示hbase中的表 list3. 创建user表,包含info.data两个列族create 'user', ...
- 多线程——Callable接口
package pers.aaa.callable; import java.util.concurrent.Callable; public class MyCallable implements ...
- git windows 安装 - Github同步 / Vscode源代码管理:Git 安装操作
github上创建立一个项目 登录github网站,在github首页,点击页面右下角"New Repository" 最后点击"Create Repository&qu ...
- 理解Vue.mixin,带你正确的偷懒
关于Vue.mixin在vue官方文档中是这么解释的: 混入 (mixin) 提供了一种非常灵活的方式,来分发 Vue 组件中的可复用功能.一个混入对象可以包含任意组件选项.当组件使用混入对象时,所有 ...
- 洗牌Shuffle'm Up POJ-3087 模拟
题目链接:Shuffle'm Up 题目大意 模拟纸牌的洗牌过程,已知两个牌数相等的牌堆.求解经过多少次洗牌的过程,使牌的顺序与目标顺序相同. 思路 直接模拟,主要是字符串的操作.问题是,如何判断出不 ...
- Hadoop核心组件之YARN
YARN概述 Yet Another Resource Negotiator:另外资源的协调者 通用的资源管理系统 为上层应用提供统一的资源管理和调度 操作系统级别的调度框架,可以让各种计算框架运行在 ...
- SPSS学习笔记参数检验—两独立样本t检验
目的:利用来自两个总体的独立样本,推断两个总体的均值是否存在差异. 适用条件: (1)样本来自的总体应服从或近似服从正态分布: (2)两样本相互独立,两样本的样本量可以不等: 案例分析: 案例描述:评 ...