Hive调优

先记录了这么多,日后如果有遇到,再补充。

fetch模式

<property>
<name>hive.fetch.task.conversion</name>
<value>more</value>
<description>
Expects one of [none, minimal, more].
Some select queries can be converted to single FETCH task minimizing latency.
Currently the query should be single sourced not having any subquery and should not have
any aggregations or distincts (which incurs RS), lateral views and joins.
0. none : disable hive.fetch.task.conversion
1. minimal : SELECT STAR, FILTER on partition columns, LIMIT only
2. more : SELECT, FILTER, LIMIT only (support TABLESAMPLE and virtual columns)
</description>
</property>

抓取模式:

  • more:默认的模式:表示全局查找,字段查找,limit查找都不启用MR;

  • minimal:分区中的filter,limit都不启用;

  • none:所有程序都走MR;

hive (default)> set hive.fetch.task.conversion;
hive.fetch.task.conversion=more

本地模式

<property>
<name>hive.exec.mode.local.auto</name>
<value>false</value> <!-- 默认关闭本地模式 -->
</property>
<property>
<name>hive.exec.mode.local.auto.inputbytes.max</name>
<value>134217728</value><!-- 文件超过此值,自动关闭本地模式 -->
</property>
<property>
<name>hive.exec.mode.local.auto.input.files.max</name>
<value>4</value><!-- 文件数量大于4,自动关闭本地模式 -->
</property>

在单台机器上处理所有任务,对于小数据集,文件数量少的任务,执行时间可以被明显缩短;

  • 开启本地模式

    hive (default)> set hive.exec.mode.local.auto=true;
  • 设置本地模式的数据集大小,文件数量:

    hive (default)> set hive.exec.mode.local.auto.inputbytes.max=134217728;
    hive (default)> set hive.exec.mode.local.auto.input.files.max=4;

表优化

大表小表Join

数据量小的表,放在join的左边,可以减少内存溢出发生的几率;

新版的hive,已经默认打开此优化(MapJoin优化),小表放左右,已经没有明显区别了;

大表 Join 大表

  1. 空Key过滤

    提前对空Key,进行过滤

    where id is not null
  2. 空Key造成数据倾斜

    给空字段,赋随机字符串(不要与非空key相同)+随机值,让这些空字段,不会进到同一个Reduce中,避免数据倾斜;

    on case when n.id is null then concat('hive',rand()) else n.id = 0.id;

MapJoin—内存换时间

将小表加载进内存,进行map;

<property>
<name>hive.auto.convert.join</name>
<value>true</value><!-- 默认开启MapJoin -->
</property>
<property>
<name>hive.mapjoin.smalltable.filesize</name>
<value>25000000</value><!-- 小表加载进内存的大小 -->
</property>

MapJoin是Hive的一种优化操作,其适用于小表JOIN大表的场景,进行自动优化;

Hive中的Join可分为

  • Common Join:Reduce阶段完成join

  • Map Join:Map阶段完成join,不需要进入到Reduce阶段才进行连接,节省了在Shuffle阶段时要进行的大量数据传输;

使用场景:

并不是所有场景都适合MapJoin,适合的场景如下:

  • 小表 Join 大表:小表会被放入内存中,不影响性能;

  • 不等值的链接操作;

Group By 优化

Map阶段后,会将同一个Key,发给同一个Reduce,如果group by的某一部分过大,就会发生数据倾斜;

数据倾斜之后,在Reduce端进行聚合就会造成资源浪费;

所以:并不是所有的聚合操作,都需要在Reduce端进行操作,很多聚合操作都可以在Map端进行。

开启Map端聚合:

<property>
<name>hive.map.aggr</name>
<value>true</value>
</property>
<property>
<name>hive.groupby.mapaggr.checkinterval</name>
<value>100000</value><!-- map端进行聚合的操作数目 -->
</property>
<property>
<name>hive.groupby.skewindata</name>
<value>false</value><!--默认false:-->
<!--有数据倾斜的时候自动进行均衡负载(将Map的结果随机分发给不同的Reduce,不再通过Key分发-->
</property>

动态分区

提前设置好如何分区,在插入数据的时候,Hive根据字段的值,自动进行分区。而不需要每次加载数据手动指定分区;

默认是:开启动态分区,非严格模式;

hive.exec.dynamic.partition=true
hive.exec.dynamic.partition.mode=nonstrict
  • strict(严格模式):必须指定至少一个分区为静态分区;

  • nonstrict(非严格模式):允许所有的分区字段都可以使用动态分区;

在所有的MR的节点上,最大一共可以创建的动态分区数目:

<property>
<name>hive.exec.max.dynamic.partitions</name>
<value>1000</value>
</property>
<property>
<name>hive.exec.max.dynamic.partitions.pernode</name>
<value>100</value><!--每个节点上,最大能创建的动态分区数-->
</property>
<property>
<name>hive.exec.max.created.files</name>
<value>100000</value><!--整个MRjob,最大创建的HDFS文件数-->
</property>
例子:

已有分区表:

create table dept(dname string,loc int)
partitioned by (deptno int)
row format delimited fields terminated by '\t';

在插入数据的时候,指定动态分区列:

insert into table dept partition(deptno)
select dname, loc deptno form dept_table;

MR优化

Map:

在MR层面的优化,主要是针对MapReduce性能的优化

  1. 小文件提前合并

  2. 复杂文件增加map操作数量

Reduce:

Reduce任务个数,默认-1,根据Map阶段输入之前的数据量来定的;

每个Reduce的默认处理数据量为256MB;输入数据1G,就会产生4个reduce;

手动设置Reduce任务数:

set mapreduce.job.reduces=15

Hive调优笔记的更多相关文章

  1. 【Hive】Hive笔记:Hive调优总结——数据倾斜,join表连接优化

    数据倾斜即为数据在节点上分布不均,是常见的优化过程中常见的需要解决的问题.常见的Hive调优的方法:列剪裁.Map Join操作. Group By操作.合并小文件. 一.表现 1.任务进度长度为99 ...

  2. Java性能调优笔记

    Java性能调优笔记 调优步骤:衡量系统现状.设定调优目标.寻找性能瓶颈.性能调优.衡量是否到达目标(如果未到达目标,需重新寻找性能瓶颈).性能调优结束. 寻找性能瓶颈 性能瓶颈的表象:资源消耗过多. ...

  3. 【Hive六】Hive调优小结

    Hive调优 Hive调优 Fetch抓取 本地模式 表的优化 小表.大表Join 大表Join大表 MapJoin Group By Count(Distinct) 去重统计 行列过滤 动态分区调整 ...

  4. (转) hive调优(2)

    hive 调优(二)参数调优汇总 在hive调优(一) 中说了一些常见的调优,但是觉得参数涉及不多,补充如下 1.设置合理solt数 mapred.tasktracker.map.tasks.maxi ...

  5. (转)hive调优(1) coding调优

    hive 调优(一)coding调优 本人认为hive是很好的工具,目前支持mr,tez,spark执行引擎,有些大公司原来封装的sparksql,开发py脚本,但是目前hive支持spark引擎(不 ...

  6. hive 调优(二)参数调优汇总

    在hive调优(一) 中说了一些常见的调优,但是觉得参数涉及不多,补充如下 1.设置合理solt数 mapred.tasktracker.map.tasks.maximum 每个tasktracker ...

  7. [转]【JVM】调优笔记2-----JVM在JDK1.8以后的新特性以及VisualVM的安装使用

    [From]https://www.cnblogs.com/sxdcgaq8080/p/7156227.html               隔壁的,加个引用做书签! [JVM]调优笔记2-----J ...

  8. 【Hadoop离线基础总结】Hive调优手段

    Hive调优手段 最常用的调优手段 Fetch抓取 MapJoin 分区裁剪 列裁剪 控制map个数以及reduce个数 JVM重用 数据压缩 Fetch的抓取 出现原因 Hive中对某些情况的查询不 ...

  9. Hive调优相关

    前言 Hive是由Facebook 开源用于解决海量结构化日志的数据统计,是基于Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类 SQL查询功能. 在资源有限的情况下,提 ...

随机推荐

  1. Qt编写气体安全管理系统8-曲线监控

    一.前言 曲线监控模块用的很少,主要就是用来观察某个设备的实时采集的数据和历史采集的数据,可以回放数据,在右侧可以选择对应的通信端口和控制器,然后选择指定的探测器进行观察,从选择的时候开始计时,每个数 ...

  2. 【物联网】esp8266

    esp8266环境配置 https://www.jianshu.com/p/cb0274d612b5 https://www.cnblogs.com/zleiblogs/p/7126106.html ...

  3. 用VS Code写C#

    目录 前言 下载SDK 安装C#支持 快速创建C#控制台 格式化代码 launch:launch.json must be configured. change 'program' to the pa ...

  4. docker 之网络配置

    Docker 网络实现 首先,要实现网络通信,机器需要至少一个网络接口(物理接口或虚拟接口)来收发数据包:此外,如果不同子网之间要进行通信,需要路由机制. Docker 中的网络接口默认都是虚拟的接口 ...

  5. 【QT开发】信号转发器QSignalMapper的使用

    QSignalMapper我们可以将它理解为一个信号翻译器或者说是哥信号转发器.它的主要应用在于可以实现一个函数相应不同按钮的实现功能.比如我们 实现一个计算器的时候,很多不同的按钮都有着差不多的功能 ...

  6. 台式电脑Bios界面设置U盘启动

  7. springboot集成kaptcha验证码

    在pom.xml引入依赖 <!-- 验证码 --> <!-- https://mvnrepository.com/artifact/com.github.penggle/kaptch ...

  8. QT 头文件之间相互包含会报错:类名不存在

    "希望是一个美好的东西! 希望, 这能自己给自己,否则只有无尽的痛苦和迷茫!"---Frank 假设你写了两个类A和B,如果在A.h中有 #include<B.h>;  ...

  9. java当中JDBC当中请给出一个SQLServer DataSource and SingleTon例子

    [学习笔记] 5.SQLServer DataSource and SingleTon: import net.sourceforge.jtds.jdbcx.*;import java.sql.*;i ...

  10. python学习-56 贪吃蛇🐍

    import random, pygame, sys from pygame.locals import * FPS = 15 WINDOWWIDTH = 640 WINDOWHEIGHT = 480 ...