走进Java Map家族 (1) - HashMap实现原理分析
在Java世界里,有一个古老而神秘的家族——Map。从底层架构到上层应用,他们活跃于世界的每一个角落。但是,每次出现时,他们都戴着一张冷硬的面具(接口),深深隐藏着自己的内心。所有人都认识他们,却并非每个人都理解他们。在这个热闹的世界中,Map们活得光荣却孤独……这个系列博文,就将尝试透过接口的伪装,走进每个家族成员的内心世界,聆听家族内部的动人传说……
注:各种Map在不同的JDK中有不同的实现。如无特别声明,本文只针对当前(2019年3月)最新的OpenJDK(13-ea)的实现
一、从HashMap开始
好了,上面都是扯淡,目的是为了让气氛更加尴尬……
第一个介绍的Map成员是HashMap,因为它应用最广,实现也最简单——简单到我一直在纠结要不要单独为它写一篇文章。代码在这里
HashMap将键值对存储于若干个bin中。所谓bin(或者叫bucket、桶),是一个可以保存多个键值对的数据结构。初始状态下,一个bin就是一个链表。具体代码如下
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
} transient Node<K,V>[] table;
Node类是链表的元素。变量table是一个链表的数组,或者说是bin的数组。HashMap所有的数据就保存在table中。(或许你注意到了transient关键字。HashMap并不直接序列化table变量,而是重写了writeObject和readObject处理数据的序列化)
当向HashMap中put数据时,首先计算key的hashCode,根据hashCode找到它所属的bin,然后将键值对放入bin中,也就是插入到链表的末尾。可见,有相同hashCode的两个key,一定会放入同一个bin中,这种现象叫hash冲突(hash collision)。而get的过程也一样,计算key的hashCode并找到对应的bin,然后在bin中搜索包含相同key的Node。
以上是HashMap的基本实现原理。
二、扩容(resize)与树化(treeify)
可见,put和get消耗的时间与链表长度是o(n)的关系。如果数据量太大,每一个链表都会很长;或者运气太差,大部分数据都集中于一个bin中,这时HashMap的性能就会迅速下降。怎么办呢?
有两种思路,要么是缩短链表长度,要么是提高bin的搜索速度。HashMap的具体策略也是从这两方面入手。每次put数据时,都记录Map中整体的数据量,以及链表的长度,然后
(1)当整体数据量超过bin的数量的3/4时,增加bin的数量,这个过程叫扩容(resize)。扩容后,各条数据都要重新计算它属于哪个bin,这叫做rehash。这样,有些数据移动到新的bin中,各个bin的链表长度就会缩短。
(2)当某个链表很长(超过7),而bin的数量很少(小于等于64个),也会扩容,以缩短链表。
(3)当某个链表长度超过7,而bin的数量大于64个,就将这个bin由链表转变为红黑树,提高搜索速度。这个过程叫做树化(treeify)。树化是在JDK 1.8才实现的。
为什么不一开始就使用树呢?个人理解,这是出于时间-空间的综合考量。当数据量很小时,树的搜索速度并不明显优于链表,而占用的空间却比链表多,因此初始选择是链表,遇到性能瓶颈也优先选择扩容。
而当bin足够多时,继续扩容就会出现问题:
(1)继续扩容也会增加空间占用(而且占用的是连续空间。还记得table是一个数组吗?)。相比于树化,扩容不再具有空间上的优势。
(2)resize之后要对所有的数据做rehash,当数据量很大时,rehash的性能负担远高于对单个bin做树化。
可以说,扩容改变所有数据的分布方式,是一种针对整体的优化方案;树化只改变单个bin的结构,是针对局部的优化方案。如果bin很多却依然存在很长的链表,说明整体优化方案对于某个bin不起作用,这可能是hashCode分布不均匀导致的。继续扩容徒然增加空间,效果却不见得理想。这时,就该采用局部优化方案,也就是树化了。
以上纯属个人理解与猜测,仅供参考。
最后说一点,bin的数量并非到了64之后就不再增长了。根据策略(1),只要整体数据量足够多,就会扩容。不过,扩容也不是无限的,毕竟数组太大了也会造成问题。bin的最大数量是2的30次方,或者写成1<<<30。
三、hashCode与扩容策略
如何根据hashCode找到数据所属的bin?每次扩容增大多少?如何rehash?这几个问题互相关联。
最简单的方案当然是取余。假设bin的数量为N,key的hashCode为H,那么key所属的bin就是第H%N个。而扩容可以任意增加bin的数量。比如扩容后的bin有N+M个,rehash时某个key所属的bin是第H%(N+M)个。
这种方法可以实现功能,但性能不好,rehash阶段会非常耗时。而且有可能两个bin中的数据被rehash到同一个bin中,从而构建了一个比以前更长的链表。而OpenJDK采用的方法则颇具技巧性,充分利用了高效的位运算。
/****开始说正事的分割线****/
OpenJDK要求bin的数量必须是2的整数幂,即1<<<N个(乘以2和左移一位等价,乘以N个2和左移N位等价)。初始状态N=4,即bin的初始数量是2的4次方,或者是1左移四位的结果,也就是16个。
有了这个要求,许多事情就变得简单了。
如何resize呢?为了保证上述条件成立,每次扩容,bin的数量都变为2倍。如果当前bin的数量为1<<<N,扩容一次后bin的数量是1<<<(N+1)。
一个key应该属于哪个bin呢?如果key的hashCode是H,bin的数量是B=1<<<N,则key所属的bin是第H&(B-1)个。也就是截取了hashCode最后的N位,如下图所示
这种计算bin的方式与取余的结果实际是相同的。但是它利用了位运算,效率高于取余。而且这种方式对rehash很友好。
扩容之后,bin的数量是B'=1<<<(N+1)=B<<<1 。rehash前,key所属的bin是b1=H&(B-1),它是hashCode截取后N位的结果;rehash之后,key所属的bin是b2=H&(B'- 1),他是hashCode截取后N+1位的结果。可见,rehash前后的差异只在hashCode的第N+1位,也就是H^B'的结果。因此有
(1)如果H&B'==0,则rehash后这个key的位置不变
(2)如果H&B'==1,则rehash后这个key所属的bin是b2=b1+B。也就是将b1的第N+1位由0变为1
整个rehash过程,全部使用位运算以及一次简单的加法运算,保证了最高效率。而且两个bin的数据不会rehash到同一个bin中,也不会把数据rehash到一个扩容前就存在的bin中,保证了所有的bin在扩容后都不可能变得更长。
最后再说一个问题,hashCode如何计算?方法如下
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
将hashCode()方法的结果的高16位与低16位做亦或运算。为什么不直接用hashCode()方法的结果呢?OpenJDK的解释是,开发者可能用Double做为key,如果各个浮点数之间差别很小,那么它们的低位将相同。而bin的位置是由hashCode的低N位决定的。这种情况下,大量的数据将进入同一个bin,发生大量hash冲突,严重影响性能。于是,OpenJDK最终选择了高位低位混淆的方案。据说,这种方案得到的hashCode满足泊松分布(虽然我不知道为什么会满足),分布很均匀。
四、关于树的二三趣事
比起链表,红黑树更复杂,也要处理更多的问题和细节。可能这就是Java拖到1.8才实现树化的原因吧。许多关于树的问题并不重要,不影响整体思路,但细细品味很有意思。所以在最后写上一些。
(1)是一棵树,也是链表
树化后,新生成的树其实保持着原有链表的结构和顺序。它既是树,也是链表。树的节点用类TreeNode表示,贴一段TreeNode的声明
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
TreeNode<K,V> parent; // red-black tree links
TreeNode<K,V> left;
TreeNode<K,V> right;
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red;
}
TreeNode间接继承自链表节点类Node,所以它也是链表节点。看到声明中的prev了吗?它不仅是链表,还是双向链表。
这么做意义何在呢?首先是方便遍历,我们大概都写过类似的代码
Map<Integer, String> m = new HashMap<>();
...
Iterator<Entry<Integer, String>> it = m.entrySet().iterator();
while(it.hasNext()) {
it.next();
}
Iterator的底层就是沿着链表的顺序遍历的。遍历链表,比遍历一棵树要高效得多。
然后,是方便逆树化(untreeify)。链表太长了会树化成一棵树。可树中的数据量可能因为resize或者remove而减少,数据太少了,树就会逆树化成一个链表。因为链表结构没有丢,逆树化就非常简单了。
(2)根节点在哪?
树的节点类TreeNode是链表节点类Node的子类。因此,树化不用改变table变量的类型
transient Node<K,V>[] table;
数组里的Node,我们称它为首节点(first node)。它可能表示链表,也可能表示树。如果是链表,首节点当然就是头节点。可如果是树,首节点是哪个节点呢?根节点(root)吗?不一定。
大部分情况下首节点都是红黑树的根节点,因为每次改变树的结构时,都会调用下面的moveToFront方法将根移动到table数组里
static <K,V> void moveRootToFront(Node<K,V>[] tab, TreeNode<K,V> root) {
int n;
if (root != null && tab != null && (n = tab.length) > 0) {
int index = (n - 1) & root.hash;
TreeNode<K,V> first = (TreeNode<K,V>)tab[index];
if (root != first) {
Node<K,V> rn;
tab[index] = root;
TreeNode<K,V> rp = root.prev;
if ((rn = root.next) != null)
((TreeNode<K,V>)rn).prev = rp;
if (rp != null)
rp.next = rn;
if (first != null)
first.prev = root;
root.next = first;
root.prev = null;
}
assert checkInvariants(root);
}
}
代码涉及到很多细节,只想了解基本思路的话,无需都看懂。但请注意第8行,root被放到table中。这时,根节点就是首节点了。
但是,有一个例外情况,就是在Iterator中remove一个数据时
Map<Integer, String> m = new HashMap<>();
...
Iterator<Entry<Integer, String>> it = m.entrySet().iterator();
it.remove();
为什么呢?注意moveToFront方法的第10-17行,改变了一些节点的next和prev指针,也就是改变了链表的顺序。因为root节点必须同时是链表的头节点。但是,(1)中说过,Iterator是靠链表遍历的,因此它不能随便改变链表的顺序,也就不会移动root。
这里需要多说一句,虽然单个bin中的数据构成链表,但不同bin的数据却没有联系,而且moveRootToFront还会改变链表顺序。因此,HashMap不是一个有序的数据结构。
(3)树中的数据如何比较
红黑树中的数据必须是可以比较的。那么HashMap的树如何比较呢。比较顺序如下:
a. 首先,比较key的hashCode;
b. 如果hashCode相同,检查key是否是Comparable的。是的话,直接比较key;
c. 如果key不是Comparable的,或者两个key比较结果相同,则比较两个key各自的类的字符创,即 key.getClass().getName()//看看你把JDK逼成什么样了 ;
d. 如果还是相同,就比较两个key的System.identityHashCode。
可见,从第三步起,事情就变得莫名诡异起来了。这也说明了,使用HashMap时,key最好是Comparable类型的,对性能有益。
五、最后吐个槽
本文是一篇薄码文,贴的代码很少。因为大多数代码比较长,又涉及诸多细节,不好看也无益于理解整体思路。
但是,从少数的代码中大概可以体会到,OpenJDK的代码质量真的不高。随处可见魔幻的变量声明和鬼畜的代码格式,就是照着写业务代码有可能会被打死的那种。学习JDK源码的主要目的是了解细节,方便开发。如果抱着参考优秀代码的目的,那你算来错了地方。
当然,这种底层的轮子,也许开发者更多考虑的是性能和可靠性,至于可读性或许并不那么重要。
走进Java Map家族 (1) - HashMap实现原理分析的更多相关文章
- java基础进阶二:HashMap实现原理分析
HashMap实现原理分析 1. HashMap的数据结构 数据结构中有数组和链表来实现对数据的存储,但这两者基本上是两个极端. 数组 数组存储区间是连续的,占用内存严重,故空间复杂的很大.但数组的二 ...
- java基础解析系列(七)---ThreadLocal原理分析
java基础解析系列(七)---ThreadLocal原理分析 目录 java基础解析系列(一)---String.StringBuffer.StringBuilder java基础解析系列(二)-- ...
- 基础进阶(一)之HashMap实现原理分析
HashMap实现原理分析 1. HashMap的数据结构 数据结构中有数组和链表来实现对数据的存储,但这两者基本上是两个极端. 数组 数组存储区间是连续的,占用内存严重,故空间复杂的很大.但数组的二 ...
- HashMap底层原理分析(put、get方法)
1.HashMap底层原理分析(put.get方法) HashMap底层是通过数组加链表的结构来实现的.HashMap通过计算key的hashCode来计算hash值,只要hashCode一样,那ha ...
- 总结HashMap实现原理分析
一.底层数据结构在JDK1.6,JDK1.7中,HashMap采用位桶+链表实现,即使用链表处理冲突,同一hash值的键值对会被放在同一个位桶里,当桶中元素较多时,通过key值查找的效率较低. 而JD ...
- Java源码学习:HashMap实现原理
AbstractMap HashMap继承制AbstractMap,很多通用的方法,比如size().isEmpty(),都已经在这里实现了.来看一个比较简单的方法,get方法: public V g ...
- Java面试& HashMap实现原理分析
1. HashMap的数据结构 数据结构中有数组和链表来实现对数据的存储,但这两者基本上是两个极端. 数组 数组存储区间是连续的,占用内存严重,故空间复杂的很大.但数组的二分查找时间复杂度小,为O( ...
- Java HashMap实现原理分析
参考链接:https://www.cnblogs.com/xiarongjin/p/8310011.html 1. HashMap的数据结构 数据结构中有数组和链表来实现对数据的存储,但这两者基本上是 ...
- HashMap实现原理分析(详解)
1. HashMap的数据结构 http://blog.csdn.net/gaopu12345/article/details/50831631 ??看一下 数据结构中有数组和链表来实现对数据的存 ...
随机推荐
- Java关于数字工具类~持续汇总~
/** * 01 * 描述:求int数组中最大值 * [时间 2019年3月5日下午3:21:36 作者 陶攀峰] */ public static int test01(int[]sz) { int ...
- 【原】无脑操作:IDEA + maven + Shiro + SpringBoot + JPA + Thymeleaf实现基础授权权限
上一篇<[原]无脑操作:IDEA + maven + Shiro + SpringBoot + JPA + Thymeleaf实现基础认证权限>介绍了实现Shiro的基础认证.本篇谈谈实现 ...
- Install Windows 2016 on VirtualBox
Download ISO file for Windows 2016 (180 days free). https://www.microsoft.com/en-us/evalcenter/eval ...
- 如何修复使用WSUS进行升级Win 10 更新1809的报错(0x8024200)
备注:该文档有另一个姊妹篇,介绍如何修复下游服务器一直有处于需要文件下载的状况. /* Style Definitions */ table.MsoNormalTable {mso-style-nam ...
- Windows Server 2016-Powershell新建用户补充
前边我们介绍到Windows Server 2016-图形化新建域用户(一) 及 Windows Server 2016-批量新建域用户(二) ,里边提到了批量通过new-aduser常见帐号,这里简 ...
- Window10 输入法不能删除问题解决
有时候我们想删除一个输入法,却发现输入法Remove 按钮是Disalbe 的,这时可以使用下面方法回避这个问题. 1.使用 Administrator 运行 Windows powerSheell. ...
- 线性回归预测PM2.5----台大李宏毅机器学习作业1(HW1)
一.作业说明 给定训练集train.csv,要求根据前9个小时的空气监测情况预测第10个小时的PM2.5含量. 训练集介绍: (1)CSV文件,包含台湾丰原地区240天的气象观测资料(取每个月前20天 ...
- Redis in .NET Core 入门:(1) 安装和主要功能简介
Redis(https://redis.io/), 是一个内存中的数据结构存储系统,它可以用作数据库.缓存和消息中间件. 安装Redis 我很少在开发机中直接装各种数据库,我一般使用Docker,针对 ...
- 【Python语言】--Crontab结合Python脚本实现将日志每天写入到文件中
一.前述 实际工作中将Python脚本每天定时写入到日志文件中的使用场景还是蛮多的,有很多种方法可以实现这种效果.本文选择一种方式实现,特将实现细节做如下分享,不当之处烦请指正. 二.具体 1.pyt ...
- 死磕 java集合之ConcurrentHashMap源码分析(一)
开篇问题 (1)ConcurrentHashMap与HashMap的数据结构是否一样? (2)HashMap在多线程环境下何时会出现并发安全问题? (3)ConcurrentHashMap是怎么解决并 ...