一、HashMap基础

1.1 HashMap的定义

我们先看一下HashMap的定义:

public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable

1.2 HashMap的属性

//默认容量
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
//最大容量
static final int MAXIMUM_CAPACITY = 1 << 30;
//默认加载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//链表转成红黑树的阈值
static final int TREEIFY_THRESHOLD = 8;
//红黑树转为链表的阈值
static final int UNTREEIFY_THRESHOLD = 6;
//存储方式由链表转成红黑树的容量的最小阈值
static final int MIN_TREEIFY_CAPACITY = 64;
//HashMap中存储的键值对的数量
transient int size;
//扩容阈值,当size>=threshold时,就会扩容
int threshold;
//HashMap的加载因子
final float loadFactor;

  

二、初始化

首先我们看无参构造函数

HashMap<String, String> hashMap = new HashMap<>();

  

  public HashMap() {//这里只是赋值了一个默认的加载因子,并没有做初始化操作
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}

我们看一下其他两个构造函数

 public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}

  这两个同样也只是赋值了加载因子和扩容阀值
注意:tableSizeFor是的到一个二次幂的数值,其计算过程是这样的

  /**
* Returns a power of two size for the given target capacity.
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

  假设初始容量为19

cap=19
int n = cap-1;//得到n=18,换算为二进制为0000 0000 0000 0000 0000 0000 0001 0010
n |= n>>>1;//表示n无符号右移一位后,与n按位或计算,其中n>>>1= 1001,按位或结果为11011
n|=n>>>2;//其中n>>>2=00110,按位或的结果为11111,下面几步类似,最终得到的结果是n=11111(二进制,也就是2^5-1,31)
这个计算方式是想法把二进制中低位的补1,最后的值一定是2的n次幂减1
最终计算得到的结果是32

  

因为cap最大为2^31,我们可以知道,这个方法的最终目的就是返回比cap大的最小的2的幂次方。

真正的初始化其实是在第一次put的时候,调用的是resize()方法,哪里调用resize()方法将在下面说明

三、put()

  public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}

这个hash(key)是一个比较经典的方法,这里我们看一下

    static final int hash(Object key) {
int h;
/**
* 这里是hash值一个巧妙的打乱方式,目的是将hash值进一步打乱,将对象在数组中的位置划分的更为均匀
* int 类型是32为的数值类型,并且可以区分为高16位和低16位
* 这里的算法就是: 高16为不变,将低16位与高16为进行 异或(^/xor) 运算 两个值不相同则为1,反之则为0
*
*/
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

put方法调用putVal方法,这里我们看一下putVal的源码

    /**
* Implements Map.put and related methods
*
* @param hash hash for key
* @param key the key
* @param value the value to put
* @param onlyIfAbsent if true, don't change existing value,这个参数很少用,但如果为true,则不替换已经存在的value值。默认是替换
* @param evict if false, the table is in creation mode.
* @return previous value, or null if none
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)//如果table为null则进行第一次扩容->既为第一次真正的初始化
/**
* 如果table为null则进行第一次扩容->既为第一次真正的初始化
*/
n = (tab = resize()).length; /**
* i = (n - 1) & hash
* 这里是又一个巧妙的运算,通过hash值,计算该节点在数组中的下标
* n 为当前数组的长度
* i 为计算出的下标
* 假如当前的长度为16(默认为HashMap的初始数组长度)
* n 的二进制为: 0000 0000 0000 0000 0000 0000 0001 0000
* 则 (n-1) 为15, 在二进制看来则是 0000 0000 0000 0000 0000 0000 0000 1111
* 此时将hash值与15进行 与(&) 运算, &:同为1 ,则为1,否则为0
* 无论hash值如何变化则运算之后的值一定在 【0-15】之间,则为当前节点所处的数组的下标,
* 这里其实与 hash % 16 的概念差不多,但是这种方法更将精妙,更加高效
*/
if ((p = tab[i = (n - 1) & hash]) == null)
/** p 为当前数组下标下的第一个节点,如果p为null,则表示当前数组下标下还没有值,这时直接新建一个node节点放入数组下标中 **/
tab[i] = newNode(hash, key, value, null);
else {/** 如果当前数组下标下有值,则进行下面代码 **/
Node<K,V> e; K k;
/**
* 1. p.hash == hash
* 首先判断当前节点的hash值是否与将要放入节点的hash值是否一致,如果一致则继续进行判断
* 2. (k = p.key) == key || (key != null && key.equals(k))
* 这个咱们拆开看, 首先看 || 符号左边
* (k = p.key) == key :这句代码首先将p.key赋值给k, 并且比较两个key值是否在同一快内存中,如果是则返回true,如果为false则继续进行判断
* 接下载咱们在看 || 符号右边
* (key != null && key.equals(k)) : 如果key不等于null的话,调用key的equels方法判断是否一致
*/
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p; /** 如果进入这个if里面则将p赋给临时变量e **/
else if (p instanceof TreeNode) /** 如果p是一个红黑树,则将put对象放入红黑树中 **/
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {/** 如果进入最后的else表示key不一致,并且该数组下标下的节点也不是一个红黑树 **/
/**
* 这里将遍历该链表
*/
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {/** 这里判断是否走到链表的最后 **/
/** 将新节点放入该链表的最后 **/
p.next = newNode(hash, key, value, null);
/**
* 这里判断是否满足将链表变成红黑树的 条件
* TREEIFY_THRESHOLD 的值为8,
* binCount是链表的下标,如果binCount的值为7,则代表该链表的长度为8
*/
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);/** 满足条件,进行红黑树的转换 **/
break;
}
/**
* 如果没有进入链表末尾
* 判断当前节点的key是否与新节点的key一致,与上面if的逻辑一样,这里不在赘述。
*/
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;/** 如果都不满足条件,继续向下寻找 **/
}
}
/**
* 经过上面代码分析过后,上面情况下e不为null呢?
* 只要新节点的key与老节点的key相同,则e不为null, e则代表,与新节点key一直的老节点
*/
if (e != null) { // existing mapping for key
V oldValue = e.value;
/** onlyIfAbsent,putVal方法的一个参数,通过这里可以看出,该参数控制是否覆盖老值,不过前提是老节点的value不为null **/
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);/** 这里在HashMap中是一个空实现,其在LinkedHashMap中有作用,这里不讨论 **/
return oldValue;
}
}
++modCount; /** modCount:表示结构被修改的次数 **/
if (++size > threshold) /** 这里我以前一直有一个误区,size表示的是map中所有节点的个数,而不是map中数组被占用的个数,这里很明确的表示出来了,如果size+1 大于阀值,则进行扩容 **/
resize();
afterNodeInsertion(evict);
System.out.println(table);
return null;
}

  这里我们在看看一下resize()方法

   final Node<K,V>[] resize() {
/** 将表格赋给临时变量 **/
Node<K,V>[] oldTab = table;
/**
* oldCap: 扩容前数组大小
* oldThr:扩容前的扩容阀值
* 顾名思义
* newCap:新的数组大小
* newThr:新的扩容阀值
*/
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
/**
* 如果数组大小大于等于最大数组限制,则将扩容阀值设为最大,即:不在进行扩容,并返回老数组
*/
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
/**
* 1. (newCap = oldCap << 1) < MAXIMUM_CAPACITY
* 新的数组大小为老数组大小右移以为,即:老数组大小乘以2
* 2. oldCap >= DEFAULT_INITIAL_CAPACITY
* 老数组大小要大于等于,默认的初始化大小即为16
*/
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
/** 新的扩容阀值也扩大一杯 **/
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;/** 老的扩容阀值大于0,并将其赋值为新的数组容量,只有通过有参构造函数猜可以走到这一步 **/
else { // zero initial threshold signifies using defaults
/** 当HashMap,第一次默认初始化的时候,就会走到这里 **/
newCap = DEFAULT_INITIAL_CAPACITY; //16
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//12
}
if (newThr == 0) {/** 新的扩容阀值为0,只有通过有参构造函数猜可以走到这一步 **/
float ft = (float)newCap * loadFactor;
/** 判断新的大小是否小于最大数组限制,并且扩容阀值是否小于最大数组限制,否则将扩容阀值设为最大 **/
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;/** 设置扩容阀值 **/
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];/** 根据扩容后的容量,创建一个新的hashMap **/
table = newTab;/** 将新的数组赋值给table属性,这里不是线程安全的 **/
if (oldTab != null) {
/** 循环老数组 **/
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
/**
* 如果老数组该下标下为null,则不管
* 如果不为null,则放入新数组中,并将老数组释放,交给gc去回收
*/
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)/** 如果该链表只有一个值,则直接将其放入新数组 **/
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)/** 如果该节点是一个红黑树,则将其拆开放入新数组,和下面将链表拆成两个链表类似 **/
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { /** 如果不是红黑树,并且链表不止一个值,则进入该步骤 **/
/**
* 首先有一个基础概念,HashMap扩容都是2倍扩容,即16->32>64
* 那么同一个链表下的节点,在新的数组中的位置只会在两个可能的位置,
* 一个是原下边,一个是原下标+原来数组的长度,
* 至于为什么会这样?
* 可以类比一组数除以16和同一组数除以32.
*
* 所以:loHead,记录原下标下的接线 loTail:记录链表末尾节点
* hiHead,记录原下标+原数组长度的,下标下的节点 hiTail:记录链表末尾节点
*/
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;/** 记录链表的下一个节点 **/
do {
next = e.next;/** 遍历下一个节点 **/
/**
* e.hash & oldCao
* 假设oldCap为16,那么二进制则是 0000 0000 0000 0000 0000 0000 0001 0000
* 随便一个hash值 0000 1010 1010 1111 0100 0101 0101 1111
* 如果第5位上不为1,则全部为0,表明,当前节点一定在数组的低位。如果第五位有值则表示一定 (% 32) 的余数一定比16大
*/
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;/** 将新的链表赋给低位的数组下标 **/
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;/** 将新的链表赋给高位的数组下标 **/
}
}
}
}
}
return newTab;
}

  这里我们在看一下treeifyBin()方法

    /**
* 替换给定散列的索引处的bin中的所有链接节点,除非表太小,在这种情况下调整大小。
*/
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
/**
* 这里判断是否满足转换为红黑树的最小数组大小,如果不满足,直接进行扩容操作
*/
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
/** 去需要扩容的数组下标下的链表首个节点 **/
else if ((e = tab[index = (n - 1) & hash]) != null) {
TreeNode<K,V> hd = null, tl = null;
do {/** 将链表节点变为TreeNode对象,并保持链表结构 **/
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);/** 改变为红黑树结构 **/
}
}

  

四、 多线程不安全问题

我们都知道,HashMap不是线程安全的。这块主要体现在两块:

3.1 get和put

这两块都没有加锁,所以可能会导致多线程执行时,出现数据被覆盖的问题。

3.2 死循环的问题

这个问题主要出现在resize的过程中,多线程都探测到需要resize时,将链表元素rehash过程中,可能会导致死循环。这个问题参考JAVA HASHMAP的死循环

至此,源码分析基本结束。

参考链接:https://www.jianshu.com/p/a66320235c43

HashMap源码解析JDK8的更多相关文章

  1. Java中的容器(集合)之HashMap源码解析

    1.HashMap源码解析(JDK8) 基础原理: 对比上一篇<Java中的容器(集合)之ArrayList源码解析>而言,本篇只解析HashMap常用的核心方法的源码. HashMap是 ...

  2. 【转】Java HashMap 源码解析(好文章)

    ­ .fluid-width-video-wrapper { width: 100%; position: relative; padding: 0; } .fluid-width-video-wra ...

  3. HashMap源码解析 非原创

    Stack过时的类,使用Deque重新实现. HashCode和equals的关系 HashCode为hash码,用于散列数组中的存储时HashMap进行散列映射. equals方法适用于比较两个对象 ...

  4. HashMap 源码赏析 JDK8

    一.简介 HashMap源码看过无数遍了,但是总是忘,好记性不如烂笔头. 本文HashMap源码基于JDK8. 文章将全面介绍HashMap的源码及HashMap存在的诸多问题. 开局一张图,先来看看 ...

  5. 最全的HashMap源码解析!

    HashMap源码解析 HashMap采用键值对形式的存储结构,每个key对应唯一的value,查询和修改的速度很快,能到到O(1)的平均复杂度.他是非线程安全的,且不能保证元素的存储顺序. 他的关系 ...

  6. HashMap源码解析和设计解读

    HashMap源码解析 ​ 想要理解HashMap底层数据的存储形式,底层原理,最好的形式就是读它的源码,但是说实话,源码的注释说明全是英文,英文不是非常好的朋友读起来真的非常吃力,我基本上看了差不多 ...

  7. 详解HashMap源码解析(下)

    上文详解HashMap源码解析(上)介绍了HashMap整体介绍了一下数据结构,主要属性字段,获取数组的索引下标,以及几个构造方法.本文重点讲解元素的添加.查找.扩容等主要方法. 添加元素 put(K ...

  8. 【Java深入研究】9、HashMap源码解析(jdk 1.8)

    一.HashMap概述 HashMap是常用的Java集合之一,是基于哈希表的Map接口的实现.与HashTable主要区别为不支持同步和允许null作为key和value.由于HashMap不是线程 ...

  9. java容器三:HashMap源码解析

    前言:Map接口 map是一个存储键值对的集合,实现了Map接口的主要类有以下几种 TreeMap:用红黑树实现 HashMap:数组和链表实现 HashTable:与HashMap类似,但是线程安全 ...

随机推荐

  1. Spring之Bean的管理方式(Content,Beans)

    Spring的bean管理(注释) 注解 代码里特殊的标记,使用注解也可以直接完成相关功能 注解写法:@注解名称(属性名=属性值) 使用在类,方法,属性上面 Spring注解开发准备 导入jar包 ( ...

  2. 错误:Attempt to resolve method: [XXX方法] on undefined variable or class name: [XXX类]的解决(IDEA打包jar问题)

    问题: 使用JMeter调用jar包的时候,报错误信息Typed variable declaration : Attempt to resolve method:[XXX方法] on undefin ...

  3. Pointer Lock API(2/3):属性、方法、事件

    Pointer Lock API 提供了三个属性.两个方法.两个事件 Tabel Of Content 属性 Document.pointerLockElement Document.onpointe ...

  4. vue按需引入/全局引入echarts

    npm install echarts -S 1.按需引入 新建echarts.js公共引入 // 文件路径 @/lib/echarts.js 自行配置 // 加载echarts,注意引入文件的路径 ...

  5. 大数据篇:Hbase

    大数据篇:Hbase Hbase是什么 Hbase是一个分布式.可扩展.支持海量数据存储的NoSQL数据库,物理结构存储结构(K-V). 如果没有Hbase 如何在大数据场景中,做到上亿数据秒级返回. ...

  6. python工业互联网监控项目实战2—OPC

    OPC(OLE for Process Control)定义:指为了给工业控制系统应用程序之间的通信建立一个接口标准,在工业控制设备与控制软件之间建立统一的数据存取规范.它给工业控制领域提供了一种标准 ...

  7. centos7安装MariaDB以及Failed to start mariadb.service: Unit not found的错误解决

    centos7下yum安装MariaDB CentOS 7下mysql下替换成MariaDB了.MariaDB数据库管理系统是MySQL的一个分支,主要由开源社区在维护,采用GPL授权 许可 Mari ...

  8. 【漏洞通告】Linux Kernel 信息泄漏&权限提升漏洞(CVE-2020-8835)通告

    0x01漏洞简介: 3月31日, 选手Manfred Paul 在Pwn2Own比赛上用于演示Linux内核权限提升的漏洞被CVE收录,漏洞编号为CVE-2020-8835.此漏洞由于bpf验证系统在 ...

  9. Linux/UNIX 下 “command not found” 原因分析及解决

    在使用 Linux/UNIX 时,会经常遇到 "command not found" 的错误,就如提示的信息,Linux /UNIX 没有找到该命令.原因无外乎你命令拼写错误或 L ...

  10. C#开发BIMFACE系列34 服务端API之模型对比5:获取模型构件对比差异

    系列目录     [已更新最新开发文章,点击查看详细] BIMFACE平台提供了服务端“获取修改构件属性差异”API,其返回的结果也是一个列表,仅针对修改的构件(不包含新增.删除的构件),是指对于一个 ...