概述

HashMap根据键的hashCode值存储数据,大多数情况下可以直接定位到它的值,因而具有很快的访问速度,但遍历顺序却是不确定的。 HashMap最多只允许一条记录的键为null,允许多条记录的值为null。HashMap非线程安全,即任一时刻可以有多个线程同时写HashMap,可能会导致数据的不一致。

内部结构

在jdk8中,HashMap处理“碰撞”增加了红黑树这种数据结构,当碰撞结点较少时,采用链表存储,当较大时(>8个),采用红黑树(特点是查询时间是O(logn))存储(有一个阀值控制,大于阀值(8个),将链表存储转换成红黑树存储)

数据结构

  1. 位桶数组

  1. transient Node<K,V>[] table;

  2.数组元素Node<K,V>实现了Entry接口

  1. //Node是单向链表,它实现了Map.Entry接口
  2. static class Node<K,V> implements Map.Entry<K,V> {
  3. final int hash;//用来定位数组索引位置
  4. final K key;
  5. V value;
  6. Node<K,V> next; // 下一个节点
  7.  
  8. //构造函数Hash值 键 值 下一个节点
  9. Node(int hash, K key, V value, Node<K,V> next) {
  10. this.hash = hash;
  11. this.key = key;
  12. this.value = value;
  13. this.next = next;
  14. }
  15.  
  16. public final K getKey() { return key; }
  17. public final V getValue() { return value; }
  18. public final String toString() { return key + "=" + value; }

  19.   //每一个节点的hash值,是将key的hashCode 和 value的hashCode 亦或得到的。
  20. public final int hashCode() {
  21. return Objects.hashCode(key) ^ Objects.hashCode(value);
  22. }
  23.  
  24. public final V setValue(V newValue) {
  25. V oldValue = value;
  26. value = newValue;
  27. return oldValue;
  28. }
  29. //判断两个node是否相等,若key和value都相等,返回true。可以与自身比较为true
  30. public final boolean equals(Object o) {
  31. if (o == this)
  32. return true;
  33. if (o instanceof Map.Entry) {
  34. Map.Entry<?,?> e = (Map.Entry<?,?>)o;
  35. if (Objects.equals(key, e.getKey()) &&
  36. Objects.equals(value, e.getValue()))
  37. return true;
  38. }
  39. return false;
  40. }
  41. }

  3. 红黑树

  1. static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
  2. TreeNode<K,V> parent; // 父节点
  3. TreeNode<K,V> left; //左子树
  4. TreeNode<K,V> right; //右子树
  5. TreeNode<K,V> prev; // needed to unlink next upon deletion
  6. boolean red; //颜色属性
  7. TreeNode(int hash, K key, V val, Node<K,V> next) {
  8. super(hash, key, val, next);
  9. }
  10.  
  11. /**
  12. * Returns root of tree containing this node.
  13. * 返回当前节点的根节点
  14. */
  15. final TreeNode<K,V> root() {
  16. for (TreeNode<K,V> r = this, p;;) {
  17. // 一层一层往上找
  18. if ((p = r.parent) == null)
  19. return r;
  20. r = p;
  21. }
  22. }

源码阅读

  1. 基本元素

  1. //默认初始容量为16,这里这个数组的容量必须为2的n次幂。
  2. static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
  3. //最大容量为2的30次方
  4. static final int MAXIMUM_CAPACITY = 1 << 30;
  5. //默认加载因子
  6. static final float DEFAULT_LOAD_FACTOR = 0.75f;
  7. //以Node<K,V>为元素的数组,长度是2的N次方,或者初始化时为0.
  8. transient Node<K,V>[] table;
  9. // 链表->红黑树阀值
  10. static final int TREEIFY_THRESHOLD = 8;
  11. // 红黑树->链表阀值
  12. static final int UNTREEIFY_THRESHOLD = 6;
  13. // 红黑树树化的最小表容量,最好>4*TREEIFY_THRESHOLD
  14. static final int MIN_TREEIFY_CAPACITY = 64;
  15. //已经储存的Node<key,value>的数量,包括数组中的和链表中的
  16. transient int size;
  17. //扩容的临界值,或者所能容纳的key-value对的极限。当size>threshold的时候就会扩容
  18. int threshold;
  19. //加载因子,用于计算哈希表元素数量的阈值。 threshold = 哈希桶.length * loadFactor;
  20. final float loadFactor;

  2.构造函数

  1. public HashMap(int initialCapacity, float loadFactor) {
  2. if (initialCapacity < 0)
  3. throw new IllegalArgumentException("Illegal initial capacity: " +
  4. initialCapacity);
  5. if (initialCapacity > MAXIMUM_CAPACITY)
  6. initialCapacity = MAXIMUM_CAPACITY;
  7. if (loadFactor <= 0 || Float.isNaN(loadFactor))
  8. throw new IllegalArgumentException("Illegal load factor: " +
  9. loadFactor);
  10. this.loadFactor = loadFactor;
  11. this.threshold = tableSizeFor(initialCapacity); //新的扩容临界值
  12. }
  13.  
  14. public HashMap(int initialCapacity) {
  15. this(initialCapacity, DEFAULT_LOAD_FACTOR);
  16. }
  17.  
  18. public HashMap() {
  19. this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
  20. }
  1. //根据期望容量cap,返回2的n次方形式的 哈希桶的实际容量 length。 返回值一般会>=cap
    static final int tableSizeFor(int cap) {
        //经过下面的 或 和位移 运算, n最终各位都是1。
  2. int n = cap - 1;
  3. n |= n >>> 1;
  4. n |= n >>> 2;
  5. n |= n >>> 4;
  6. n |= n >>> 8;
  7. n |= n >>> 16;
        //判断n是否越界,返回 2的n次方作为 table(哈希桶)的阈值
  8. return (n < 0) ? 1 : (n >= 1 << 30) ? 1 << 30 : n + 1;
  9. }

这个方法就是算>=cap,且是2的倍数的最小值,例如

确定哈希桶数组索引位置

不管增加、删除、查找键值对,定位到哈希桶数组的位置都是很关键的第一步。前面说过HashMap的数据结构是数组和链表的结合,所以我们当然希望这个HashMap里面的元素位置尽量分布均匀些,尽量使得每个位置上的元素数量只有一个,那么当我们用hash算法求得这个位置的时候,马上就可以知道对应位置的元素就是我们要的,不用遍历链表,大大优化了查询的效率。HashMap定位数组索引位置,直接决定了hash方法的离散性能。

  1. // 第一步
  2. static final int hash(Object key) {
  3. int h;
  4. return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
  5. }
  6.  
  7. //第二步
  8. (n - 1) & hash

这里的Hash算法本质上就是三步:取key的hashCode值、高位运算、取模运算

通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候,也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销。

通过(n - 1) & hash来得到该对象的保存位,而HashMap底层数组的长度总是2的n次方,这是HashMap在速度上的优化。当length总是2的n次方时,(n - 1) & hash运算等价于对n取模,也就是h%n,但是&比%具有更高的效率。

添加元素

①.判断键值对数组table[i]是否为空或为null,否则执行resize()进行扩容;

②.根据键值key计算hash值得到插入的数组索引i,如果table[i]==null,直接新建节点添加,转向⑥,如果table[i]不为空,转向③;

③.判断table[i]的首个元素是否和key一样,如果相同直接覆盖value,否则转向④,这里的相同指的是hashCode以及equals;

④.判断table[i] 是否为treeNode,即table[i] 是否是红黑树,如果是红黑树,则直接在树中插入键值对,否则转向⑤;

⑤.遍历table[i],判断链表长度是否大于8,大于8的话把链表转换为红黑树,在红黑树中执行插入操作,否则进行链表的插入操作;遍历过程中若发现key已经存在直接覆盖value即可;

⑥.插入成功后,判断实际存在的键值对数量size是否超多了最大容量threshold,如果超过,进行扩容。

  1. 1 public V put(K key, V value) {
  2. 2 // 对key的hashCode()做hash
  3. 3 return putVal(hash(key), key, value, false, true);
  4. 4 }
  5. 5
  6. 6 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
  7. 7 boolean evict) {
  8. 8 Node<K,V>[] tab; Node<K,V> p; int n, i;
  9. 9 // 步骤①:tab为空则创建
  10. 10 if ((tab = table) == null || (n = tab.length) == 0)
  11. 11 n = (tab = resize()).length;
  12. 12 // 步骤②:计算index,并对null做处理
  13. 13 if ((p = tab[i = (n - 1) & hash]) == null)
  14. 14 tab[i] = newNode(hash, key, value, null);
  15. 15 else {
  16. 16 Node<K,V> e; K k;
  17. 17 // 步骤③:节点key存在,直接覆盖value
  18. 18 if (p.hash == hash &&
  19. 19 ((k = p.key) == key || (key != null && key.equals(k))))
  20. 20 e = p;
  21. 21 // 步骤④:判断该链为红黑树
  22. 22 else if (p instanceof TreeNode)
  23. 23 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
  24. 24 // 步骤⑤:该链为链表
  25. 25 else {
  26. 26 for (int binCount = 0; ; ++binCount) {
  27. 27 if ((e = p.next) == null) {
  28. 28 p.next = newNode(hash, key,value,null);
  29. //链表长度大于8转换为红黑树进行处理
  30. 29 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
  31. 30 treeifyBin(tab, hash);
  32. 31 break;
  33. 32 }
  34. // key已经存在直接覆盖value
  35. 33 if (e.hash == hash &&
  36. 34 ((k = e.key) == key || (key != null && key.equals(k))))
                 break;
  37. 36 p = e;
  38. 37 }
  39. 38 }
  40. 39 //如果e不是null,说明有需要覆盖的节点,
  41. 40 if (e != null) { // existing mapping for key
  42. 41 V oldValue = e.value;
  43. 42 if (!onlyIfAbsent || oldValue == null)
  44. 43 e.value = value;
  45. 44 afterNodeAccess(e);
  46. 45 return oldValue;
  47. 46 }
  48. 47 }
  49.  
  50. 48 ++modCount;
  51. 49 // 步骤⑥:超过最大容量 就扩容
  52. 50 if (++size > threshold)
  53. 51 resize();
  54. 52 afterNodeInsertion(evict);
  55. 53 return null;
  56. 54 }

扩容机制

扩容(resize)就是重新计算容量,向HashMap对象里不停的添加元素,而HashMap对象内部的数组无法装载更多的元素时,对象就需要扩大数组的长度,以便能装入更多的元素。当然Java里的数组是无法自动扩容的,方法是使用一个新的数组代替已有的容量小的数组,就像我们用一个小桶装水,如果想装更多的水,就得换大水桶。通过扩容也可以有效的解决碰撞问题。

  1. final Node<K,V>[] resize() {
  2. //oldTab 为当前表的哈希桶
  3. Node<K,V>[] oldTab = table;
  4. //当前哈希桶的容量 length
  5. int oldCap = (oldTab == null) ? 0 : oldTab.length;
  6. //当前的阈值
  7. int oldThr = threshold;
  8. //初始化新的容量和阈值为0
  9. int newCap, newThr = 0;
  10. //如果当前容量大于0
  11. if (oldCap > 0) {
  12. //如果当前容量已经到达上限
  13. if (oldCap >= MAXIMUM_CAPACITY) {
  14. //则设置阈值是2的31次方-1
  15. threshold = Integer.MAX_VALUE;
  16. //同时返回当前的哈希桶,不再扩容
  17. return oldTab;
  18. }//否则新的容量为旧的容量的两倍。
  19. else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
  20. oldCap >= DEFAULT_INITIAL_CAPACITY)//如果旧的容量大于等于默认初始容量16
  21. //那么新的阈值也等于旧的阈值的两倍
  22. newThr = oldThr << 1; // double threshold
  23. }//如果当前表是空的,但是有阈值。代表是初始化时指定了容量、阈值的情况
  24. else if (oldThr > 0) // initial capacity was placed in threshold
  25. newCap = oldThr;//那么新表的容量就等于旧的阈值
  26. else {}//如果当前表是空的,而且也没有阈值。代表是初始化时没有任何容量/阈值参数的情况 // zero initial threshold signifies using defaults
  27. newCap = DEFAULT_INITIAL_CAPACITY;//此时新表的容量为默认的容量 16
  28. newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//新的阈值为默认容量16 * 默认加载因子0.75f = 12
  29. }
  30. if (newThr == 0) {//如果新的阈值是0,对应的是 当前表是空的,但是有阈值的情况
  31. float ft = (float)newCap * loadFactor;//根据新表容量 和 加载因子 求出新的阈值
  32. //进行越界修复
  33. newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
  34. (int)ft : Integer.MAX_VALUE);
  35. }
  36. //更新阈值
  37. threshold = newThr;
  38. @SuppressWarnings({"rawtypes","unchecked"})
  39. //根据新的容量 构建新的哈希桶
  40. Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
  41. //更新哈希桶引用
  42. table = newTab;
  43. //如果以前的哈希桶中有元素
  44. //下面开始将当前哈希桶中的所有节点转移到新的哈希桶中
  45. if (oldTab != null) {
  46. //遍历老的哈希桶
  47. for (int j = 0; j < oldCap; ++j) {
  48. //取出当前的节点 e
  49. Node<K,V> e;
  50. //如果当前桶中有元素,则将链表赋值给e
  51. if ((e = oldTab[j]) != null) {
  52. //将原哈希桶置空以便GC
  53. oldTab[j] = null;
  54. //如果当前链表中就一个元素,(没有发生哈希碰撞)
  55. if (e.next == null)
  56. //直接将这个元素放置在新的哈希桶里。
  57. //注意这里取下标 是用 哈希值 与 桶的长度-1 。 由于桶的长度是2的n次方,这么做其实是等于 一个模运算。但是效率更高
  58. newTab[e.hash & (newCap - 1)] = e;
  59. //如果发生过哈希碰撞 ,而且是节点数超过8个,转化成了红黑树(暂且不谈 避免过于复杂, 后续专门研究一下红黑树)
  60. else if (e instanceof TreeNode)
  61. ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
  62. //如果发生过哈希碰撞,节点数小于8个。则要根据链表上每个节点的哈希值,依次放入新哈希桶对应下标位置。
  63. else { // preserve order
  64. //因为扩容是容量翻倍,所以原链表上的每个节点,现在可能存放在原来的下标,即low位, 或者扩容后的下标,即high位。 high位= low位+原哈希桶容量
  65. //低位链表的头结点、尾节点
  66. Node<K,V> loHead = null, loTail = null;
  67. //高位链表的头节点、尾节点
  68. Node<K,V> hiHead = null, hiTail = null;
  69. Node<K,V> next;//临时节点 存放e的下一个节点
  70. do {
  71. next = e.next;
  72. //这里又是一个利用位运算 代替常规运算的高效点: 利用哈希值 与 旧的容量,可以得到哈希值去模后,是大于等于oldCap还是小于oldCap,等于0代表小于oldCap,应该存放在低位,否则存放在高位
  73. if ((e.hash & oldCap) == 0) {
  74. //给头尾节点指针赋值
  75. if (loTail == null)
  76. loHead = e;
  77. else
  78. loTail.next = e;
  79. loTail = e;
  80. }//高位也是相同的逻辑
  81. else {
  82. if (hiTail == null)
  83. hiHead = e;
  84. else
  85. hiTail.next = e;
  86. hiTail = e;
  87. }//循环直到链表结束
  88. } while ((e = next) != null);
  89. //将低位链表存放在原index处,
  90. if (loTail != null) {
  91. loTail.next = null;
  92. newTab[j] = loHead;
  93. }
  94. //将高位链表存放在新index处
  95. if (hiTail != null) {
  96. hiTail.next = null;
  97. newTab[j + oldCap] = hiHead;
  98. }
  99. }
  100. }
  101. }
  102. }
  103. return newTab;
  104. }

查询元素

  1. public V get(Object key) {
  2. Node<K,V> e;
  3. return (e = getNode(hash(key), key)) == null ? null : e.value;
  4. }
  5.  
  6. final Node<K,V> getNode(int hash, Object key) {
  7. Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
  8. // 找到hash对应的位置,也就是数组中的位置
  9. if ((tab = table) != null && (n = tab.length) > 0 &&
  10. (first = tab[(n - 1) & hash]) != null) {
  11. // 检查第一个Node是不是要找的Node
  12. if (first.hash == hash && // always check first node
  13. ((k = first.key) == key || (key != null && key.equals(k))))
  14. return first;
  15. // 检查first后面的node
  16. if ((e = first.next) != null) {
  17. if (first instanceof TreeNode) // 查询红黑树
  18. return ((TreeNode<K,V>)first).getTreeNode(hash, key);
  19. do {
  20. // 遍历后面的链表,找到key值和hash值都相同的Node
  21. if (e.hash == hash &&
  22. ((k = e.key) == key || (key != null && key.equals(k))))
  23. return e;
  24. } while ((e = e.next) != null);
  25. }
  26. }
  27. return null;
  28. }

源码阅读之HashMap(JDK8)的更多相关文章

  1. Java集合源码阅读之HashMap

    基于jdk1.8的HashMap源码分析. 引用于:http://blog.stormma.me/2017/05/31/Java%E9%9B%86%E5%90%88%E6%BA%90%E7%A0%81 ...

  2. jdk源码阅读笔记-HashMap

    文章出处:[noblogs-it技术博客网站]的博客:jdk1.8源码分析 在Java语言中使用的最多的数据结构大概右两种,第一种是数组,比如Array,ArrayList,第二种链表,比如Array ...

  3. JDK 1.8源码阅读 HashMap

    一,前言 HashMap实现了Map的接口,而Map的类型是成对出现的.每个元素由键与值两部分组成,通过键可以找对所对应的值.Map中的集合不能包含重复的键,值可以重复:每个键只能对应一个值. 存储数 ...

  4. 【JDK1.8】JDK1.8集合源码阅读——HashMap

    一.前言 笔者之前看过一篇关于jdk1.8的HashMap源码分析,作者对里面的解读很到位,将代码里关键的地方都说了一遍,值得推荐.笔者也会顺着他的顺序来阅读一遍,除了基础的方法外,添加了其他补充内容 ...

  5. HashMap源码阅读笔记

    HashMap源码阅读笔记 本文在此博客的内容上进行了部分修改,旨在加深笔者对HashMap的理解,暂不讨论红黑树相关逻辑 概述   HashMap作为经常使用到的类,大多时候都是只知道大概原理,比如 ...

  6. HashMap源码阅读

    HashMap是Map家族中使用频度最高的一个,下文主要结合源码来讲解HashMap的工作原理. 1. 数据结构 HashMap的数据结构主要由数组+链表+红黑树(JDK1.8后新增)组成,如下图所示 ...

  7. 源码阅读之LinkedList(JDK8)

    inkedList概述 LinkedList是List和Deque接口的双向链表的实现.实现了所有可选列表操作,并允许包括null值. LinkedList既然是通过双向链表去实现的,那么它可以被当作 ...

  8. 源码阅读之ArrayList(JDK8)

    ArrayList概述 ArrayList是一个的可变数组的实现,实现了所有可选列表操作,并允许包括 null 在内的所有元素.每个ArrayList实例都有一个容量,该容量是指用来存储列表元素的数组 ...

  9. Java 源码刨析 - HashMap 底层实现原理是什么?JDK8 做了哪些优化?

    [基本结构] 在 JDK 1.7 中 HashMap 是以数组加链表的形式组成的: JDK 1.8 之后新增了红黑树的组成结构,当链表大于 8 并且容量大于 64 时,链表结构会转换成红黑树结构,它的 ...

随机推荐

  1. msp430入门编程01

    msp430单片机最小系统 msp430入门学习 msp430入门编程

  2. VIM使用技巧14

    经常使用vim的童鞋可能会注意到,实际操作过程中,处于插入模式中是非常少的,更多的是查看和浏览,偶尔修改即可.因此,快速从插入模式退出进入普通模式,就显得非常重要.主要有以下四种方式: 一.在插入模式 ...

  3. [bzoj5101][POI2018]Powódź_并查集

    Powódź bzoj-5101 POI-2018 题目大意:在地面上有一个水箱,它的俯视图被划分成了$n$行$m$列个方格,相邻两个方格之间有一堵厚度可以忽略不计的墙,水箱与外界之间有一堵高度无穷大 ...

  4. 使用异步委托执行线程(delegate)

    由于异步委托产生的线程与应用程序主线程是分开执行的,若主线程要获取异步委托线程的结果,则主线程需要等待异步委托的执行结果. BeginInvoke是Delegate类型的一个方法,它的返回类型为IAs ...

  5. 【SQL Server 学习系列】-- 收缩数据库文件大小

    USE WebExam; GO ALTER DATABASE WebExam SET RECOVERY SIMPLE; GO -- 收缩文件到 1 MB. ); GO ALTER DATABASE W ...

  6. 【结果发布】第六届SeedCoder编程大赛初赛结果发布

    微软俱乐部科技文化月seedcoder2014编程大赛已经初审完成. 评审小组选出最棒的作品进入决赛(现场答辩+陈述环节,由评委现场打分).终于排名由"初赛分数+现场答辩分"决定. ...

  7. 剑指Offer —— BFS 宽度优先打印

    https://www.nowcoder.net/practice/7fe2212963db4790b57431d9ed259701?tpId=13&tqId=11175&tPage= ...

  8. gcc 5.2.0 编译安装笔记-20151110

    **转载请注明出处** by.haunying3 系统版本号 CentOS-6.6-x86_64-minimal 编译器 gcc-4.4.7通过yum安装 rpm -qa | grep gcc gcc ...

  9. C#高级编程五十二天----有序列表

    有序列表 假设须要基于对全部集合排序,就能够使用SortedList<TKey,TValue>类.这个类依照键给元素排序.这个集合中的值和键都能够使用随意类型. 以下的样例创建了一个有序列 ...

  10. java中关于'&&'、'||'混合运算优先级问题小结

    package com.per.sdg.operator; /** * 结论:先进行'&&'运算,在进行'||'运算 * @author sundg * */ public class ...