HashMap算是日常开发中最长用的类之一了,我们应该了解它的结构跟算法:
参考文章:

数据结构中有数组核链表来实现对数据的存储,但这两者基本上是两个极端。
数组:存储区间是连续的,占用内存严重,故空间复杂的很大。但数组的二分查找时间复杂度小,为O(1);数组的特点是:寻址容易,插入和删除困难;
链表:存储区间离散,占用内存比较宽松,故空间复杂度很小,但时间复杂度很大,达O(N)。链表的特点是:寻址困难,插入和删除容易。
哈希表:那么我们能不能综合两者的特性,做出一种寻址容易,插入删除也容易的数据结构?答案是肯定的,这就是我们要提起的哈希表。哈希表((Hash table)既满足了数据的查找方便,同时不占用太多的内容空间,使用也十分方便。
  哈希表有多种不同的实现方法,我接下来解释的是最常用的一种方法—— 拉链法,我们可以理解为“链表的数组” ,如图:

  从上图我们可以发现哈希表是由数组+链表组成的,一个长度为16的数组中,每个元素存储的是一个链表的头结点。那么这些元素是按照什么样的规则存储到数组中呢。一般情况是通过hash(key)%len获得,也就是元素的key的哈希值对数组长度取模得到。比如上述哈希表中,12%16=12,28%16=12,108%16=12,140%16=12。所以12、28、108以及140都存储在数组下标为12的位置。
HashMap其实也是一个线性的数组实现的,所以可以理解为其存储数据的容器就是一个线性数组。这可能让我们很不解,一个线性的数组怎么实现按键值对来存取数据呢?这里HashMap有做一些处理。
  首先HashMap里面实现一个静态内部类Entry(jdk8改为用Node了),其重要的属性有 key , value, next,从属性key,value我们就能很明显的看出来Entry就是HashMap键值对实现的一个基础bean,我们上面说到HashMap的基础就是一个线性数组,这个数组就是Entry[](jdk8就是Node[]),Map里面的内容都保存在Entry[]里面。

------------------------------------------------------------
HashMap的hash方法:
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
所谓的高位参与运算,就是key的hashCode异或hashCode的高16位。

HashMap的put方法:

public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
} final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0) // entry数组为空,new HashMap的时候,并没有初始化数组
n = (tab = resize()).length; //初始化数组,稍后看resize()实现
if ((p = tab[i = (n - 1) & hash]) == null) //分配到的数组位置为null,这里一个很巧妙的操作,没有用取模%运算,而是这个位与,效率更高而且正好这里等于取模
tab[i] = newNode(hash, key, value, null);
else {//分配到的位置不是null的情况,要遍历链表
Node<K,V> e; K k;
if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) // key跟链表第一个元素的key相同,这里比较的是hashcode跟equals,从本方法以及Node的构造方法来看,Node的hash就是其中键的hash值
e = p; // 注意,这里找到后并没有修改节点的值,节点的值是在后边修改的
else if (p instanceof TreeNode) //是treenode,jdk8在链表长度超过8后将node改为红黑树进行优化
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else { //遍历链表
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {// 新元素放于链表尾部
p.next = newNode(hash, key, value, null); // 结合Node的构造方法,node的hash就是此处的hash
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break; //已设置新元素,终止循环
}
if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) //链表有节点的hash跟新元素相同并且equals判断也相等
break; //找到了,终止循环
p = e; // 注意,这句不在if范围内,仅仅在for循环内而已,所以如果已经有对应节点已经有oldValue的情况下,并没有修改原来的值,修改的操作在后边
}
}
if (e != null) { // existing mapping for key //有oldValue的情况,e就是旧节点
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null) // 允许重写原来值,或者原来的值为null,注意,onlyIfAbsent,这个属性hashmap实际没用,一直是默认false,也就一直默认覆盖原来的值
e.value = value;
afterNodeAccess(e); // 值更新之后的操作,hashmap中此方法为空,无任何操作,该方法以及后边的afterNodeInsertion()都是给LinkedHashMap用的。
return oldValue;
}
}
++modCount; // 修改计数器,其实只有新增才修改了此值,覆盖原来值的操作,因为提前return 了,此值没有改变
if (++size > threshold) // hashMpa的容量达到了阈值
resize();
afterNodeInsertion(evict);
return null;
}
// Callbacks to allow LinkedHashMap post-actions
void afterNodeAccess(Node<K,V> p) { }
void afterNodeInsertion(boolean evict) { }
void afterNodeRemoval(Node<K,V> p) { }  

链表的实现类Node:

static class Node<K,V> implements Map.Entry<K,V> {  //相当于链表节点
final int hash;
final K key;
V value;
Node<K,V> next;
Node(int hash, K key, V value, Node<K,V> next) { // 节点的hash就是所给元素的hash
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; } public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
public final boolean equals(Object o) { //
if (o == this) // 地址相等----------其实这个值不一定是内存地址,不同虚拟机实现不同,sun貌似是地址的一个hash值
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) && Objects.equals(value, e.getValue())) // 键跟值的equals都相等
return true;
}
return false;
}
}

非常重要的resize() 方法:

/**
* Initializes or doubles table size. If null, allocates in accord with initial capacity target held in field threshold.
* Otherwise, because we are using power-of-two expansion, the elements from each bin must either stay at same index, or move
* with a power of two offset in the new table.
* @return the table
*/
大概意思是说,该方法用来初始化table或者使table的容量翻倍,如果原来table为空,则根据初始化参数进行初始化;否则,因为我们采用2的幂方案,每个链表的元素应该在容量翻倍后仍然位于新table的相同下标下或者移动到二倍下标位置。
说明:这个地方jdk8比jdk7做了优化,如果不了解其原理的话,读起来非常费解。jdk7的时候,resize就是把数组扩展为2倍,遍历每个数组中的链表,
进行重新hash取模找位置,而且链表元素添最先加的在后边,最后添加的在前边;jdk8对此做了优化,仍然扩展为2倍,遍历链表,但没有简单的进行hash取模找位置,
而是采用了查看参与计算的新的一位的hash的值是1还是0的办法,是0则位置不变,是1则位置变为原index+size,而且新添加的元素放在了链表的尾部。
其原理详解,摘抄自美团:https://tech.meituan.com/java-hashmap.html,写的非常好:
下面举个例子说明下扩容过程(jdk7)。假设了我们的hash算法就是简单的用key mod 一下表的大小(也就是数组的长度)。其中的哈希桶数组table的size=2, 所以key = 3、7、5,put顺序依次为 5、7、3。在mod 2以后都冲突在table[1]这里了。这里假设负载因子 loadFactor=1,即当键值对的实际大小size 大于 table的实际大小时进行扩容。接下来的三个步骤是哈希桶数组 resize成4,然后所有的Node重新rehash的过程。 

下面我们讲解下JDK1.8做了哪些优化。经过观测可以发现,我们使用的是2次幂的扩展(指长度扩为原来2倍),所以,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。看下图可以明白这句话的意思,n为table的长度,图(a)表示扩容前的key1和key2两种key确定索引位置的示例,图(b)表示扩容后key1和key2两种key确定索引位置的示例,其中hash1是key1对应的哈希与高位运算结果。 

元素在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:

因此,我们在扩充HashMap的时候,不需要像JDK1.7的实现那样重新计算hash,只需要看看原来的hash值新增的那个bit是1还是0就好了,是0的话索引没变,是1的话索引变成“原索引+oldCap”,可以看看下图为16扩充为32的resize示意图: 

这个设计确实非常的巧妙,既省去了重新计算hash值的时间,而且同时,由于新增的1bit是0还是1可以认为是随机的,因此resize的过程,均匀的把之前的冲突的节点分散到新的bucket了,当然图中显示的每隔一个分到相同下标,实际其实是无规律的。这一块就是JDK1.8新增的优化点。有一点注意区别,JDK1.7中rehash的时候,旧链表迁移新链表的时候,如果在新表的数组索引位置相同,则链表元素会倒置,但是从上图可以看出,JDK1.8不会倒置。

jdk8源码:

  1. final Node<K,V>[] resize() {
2. Node<K,V>[] oldTab = table; //老的数组,也就是所谓的桶
3. int oldCap = (oldTab == null) ? 0 : oldTab.length; // 老的容量
4. int oldThr = threshold; // 阈值
5. int newCap, newThr = 0;
6. if (oldCap > 0) { // 老的容量>0,说明map里已经有元素了
7. if (oldCap >= MAXIMUM_CAPACITY) { // 老的容量已经很大了,直接把阈值扩展到最大,不再容量翻倍了,太费劲了,而且效率提升有限,此时容量2的29次方,大概在3亿
8. threshold = Integer.MAX_VALUE;
9. return oldTab;
10. }
11. else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) //老容量在2<<<28的时候还能翻倍,到了2<<<29就不翻倍了,凑合着用吧
12. newThr = oldThr << 1; // double threshold
13. }
14. else if (oldThr > 0) // initial capacity was placed in threshold // 老容量==0,阈值>0,说明调用了new HashMap(容量=0,加载因子);
15. newCap = oldThr;
16. else { // zero initial threshold signifies using defaults //都是用默认值
17. newCap = DEFAULT_INITIAL_CAPACITY; // 默认1<<<4 = 16
18. newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); //默认16*0.75=12
19. }
20. if (newThr == 0) { //上来就new HashMap(容量大于2<<<29);没有指定加载因子的情况,自己计算阈值
21. float ft = (float)newCap * loadFactor;
22. newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
23. (int)ft : Integer.MAX_VALUE);
24. }
25. threshold = newThr;
26. Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
27. table = newTab;
28. if (oldTab != null) {
29. for (int j = 0; j < oldCap; ++j) { // 重点来了,迁移老数组进新数组
30. Node<K,V> e;
31. if ((e = oldTab[j]) != null) {
32. oldTab[j] = null;
33. if (e.next == null) //原数组j下标下,就一个元素
34. newTab[e.hash & (newCap - 1)] = e; //直接快速位与取模,找下标
35. else if (e instanceof TreeNode) //是红黑树节点
36. ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
37. else { // preserve order
38. Node<K,V> loHead = null, loTail = null; //这里分别lowHead tail跟highHead tail两个对象,稍后分析为啥这么写
39. Node<K,V> hiHead = null, hiTail = null;
40. Node<K,V> next;
41. do { // j下标下有好多个链表的情况
42. next = e.next;
43. if ((e.hash & oldCap) == 0) {//hash中参与计算的新一位为0,下标不变; 计算方式参照上方图解;
44. if (loTail == null)
45. loHead = e;
46. else
47. loTail.next = e;
48. loTail = e;
49. }
50. else { // hash中参与计算的新一位为1,下标变为 原容量+原下标,不用重新计算了,省事儿,就是优化在这里了(实际这一步也是计算了,只是计算比原来简单了)
51. if (hiTail == null)
52. hiHead = e;
53. else
54. hiTail.next = e;
55. hiTail = e;
56. }
57. } while ((e = next) != null);// 遍历下一个元素
58. if (loTail != null) { // 设置下标,放入新数组
59. loTail.next = null;
60. newTab[j] = loHead;
61. }
62. if (hiTail != null) { // 设置下标,放入新数组
63. hiTail.next = null;
64. newTab[j + oldCap] = hiHead;
65. }
66. }
67. }
68. }
69. }
70. return newTab;
71. }

关于HashMap的初始容量:

HashMap的几个构造方法最后都调用了这个构造方法:

  1. public HashMap(int initialCapacity, float loadFactor) {
2. if (initialCapacity < 0) //给定初始长度<0则抛异常
3. throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);
4. if (initialCapacity > MAXIMUM_CAPACITY) //给定初始长度太大,则设为默认最大容量
5. initialCapacity = MAXIMUM_CAPACITY;
6. if (loadFactor <= 0 || Float.isNaN(loadFactor)) //给定负载因子<0或者不是数字,抛异常
7. throw new IllegalArgumentException("Illegal load factor: " +
8. loadFactor);
9. this.loadFactor = loadFactor; //负载因子采用给定值
10. this.threshold = tableSizeFor(initialCapacity); //阈值利用初始容量,通过一个方法进行计算
11. }

计算方法:

  1. static final int tableSizeFor(int cap) {
2. int n = cap - 1;
3. n |= n >>> 1; // n = n | n >>> 1
4. n |= n >>> 2;
5. n |= n >>> 4;
6. n |= n >>> 8;
7. n |= n >>> 16;
8. return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
9. }

  这个方法的作用就是无论初始容量是多少,最终的容量都将计算为不小于初始容量的2的最小次幂;比如初始容量为4,则经变化后初始容量仍为4,若初始容量为5,则变化后容量应该为8而不是5;之所以这么变化,是因为resize的机制中计算方式,table的长度必须为2的幂,否则计算方式会出错,而且计算起来会比现在复杂。

HashMap的遍历:
  我们最常用的遍历方式为:
Iterator<Map.Entry<String, String>> iterator;
iterator = hashMap.entrySet().iterator();
while (iterator.hasNext()) {
Map.Entry<String, String> next = iterator.next();
String key = next.getKey();
String value = next.getValue();
}

  我们通过map得到了一个entrySet对象,然后又获取了一个Iterator对象,最终就是通过这个Iterator来遍历的,那么这个Iterator是怎么个结构,如何实现遍历的呢?

final class EntrySet extends AbstractSet<Map.Entry<K,V>> {
public final int size() { return size; }
public final void clear() { HashMap.this.clear(); }
public final Iterator<Map.Entry<K,V>> iterator() {
return new EntryIterator();
}
//......
}
  这个EntryIterator的代码:
final class EntryIterator extends HashIterator
implements Iterator<Map.Entry<K,V>> {
public final Map.Entry<K,V> next() { return nextNode(); }
}

  HashIterator的代码:

abstract class HashIterator {
Node<K,V> next; // next entry to return
Node<K,V> current; // current entry
int expectedModCount; // for fast-fail
int index; // current slot HashIterator() { //构造方法
expectedModCount = modCount;
Node<K,V>[] t = table; //map中哈希表的数组
current = next = null;
index = 0;
if (t != null && size > 0) { // advance to first entry
do {} while (index < t.length && (next = t[index++]) == null);//找到数组中第一个非空元素,赋值给next
}
} public final boolean hasNext() {
return next != null;
} final Node<K,V> nextNode() {
Node<K,V>[] t;
Node<K,V> e = next;
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
if (e == null)
throw new NoSuchElementException();
if ((next = (current = e).next) == null && (t = table) != null) {//本链表找完了,顺着数组找下一个链表,然后遍历
do {} while (index < t.length && (next = t[index++]) == null);
}
return e;
}
}

  总结,遍历的过程就是找到数组中第一链表开始的位置,顺着遍历完本链表,然后顺着数组找第二个链表的位置,然后遍历第二个链表,这样一条链表一条链表的顺着来的。

---------------------------------------------------------------------------------------------------------------------------------------
  ps:LinkedHashMap的结构跟HashMap相同,只是由单向链表改为了双向链表。
  本来准备再看一下HashSet的,结果,,,,这就是个限制了功能的HashMap,,,,https://blog.csdn.net/sugar_rainbow/article/details/68257208

  

HashMap的结构算法及代码分析的更多相关文章

  1. C++反汇编代码分析--函数调用

    推荐阅读: C++反汇编代码分析–函数调用 C++反汇编代码分析–循环结构 C++反汇编代码分析–偷调函数 走进内存,走进汇编指令来看C/C++指针 代码如下: #include "stdl ...

  2. HashMap的结构以及核心源码分析

    摘要 对于Java开发人员来说,能够熟练地掌握java的集合类是必须的,本节想要跟大家共同学习一下JDK1.8中HashMap的底层实现与源码分析.HashMap是开发中使用频率最高的用于映射(键值对 ...

  3. ADB结构及代码分析【转】

    本文转载自:http://blog.csdn.net/happylifer/article/details/7682563 最近因为需要,看了下adb的源代码,感觉这个作者很牛,设计的很好,于是稍微做 ...

  4. KMP算法以及优化(代码分析以及求解next数组和nextval数组)

    KMP算法以及优化(代码分析以及求解next数组和nextval数组) 来了,数据结构及算法的内容来了,这才是我们的专攻,前面写的都是开胃小菜,本篇文章,侧重考研408方向,所以保证了你只要看懂了,题 ...

  5. HashMap底层结构、原理、扩容机制

    https://www.jianshu.com/p/c1b616ff1130 http://youzhixueyuan.com/the-underlying-structure-and-princip ...

  6. Java7/8 中 HashMap 和 ConcurrentHashMap的对比和分析

    大家可能平时用HashMap比较多,相对于ConcurrentHashMap 来说并不是很熟悉.ConcurrentHashMap 是 JDK 1.5 添加的新集合,用来保证线程安全性,提升 Map ...

  7. HashMap的小总结 + 源码分析

    一.HashMap的原理 所谓Map,就是关联数组,存的是键值对——key&value. 实现一个简单的Map,你也许会直接用两个LIst,一个存key,一个存value.然后做查询或者get ...

  8. 1.Java集合-HashMap实现原理及源码分析

    哈希表(Hash  Table)也叫散列表,是一种非常重要的数据结构,应用场景及其丰富,许多缓存技术(比如memcached)的核心其实就是在内存中维护一张大的哈希表,而HashMap的实现原理也常常 ...

  9. MYSQL索引结构原理、性能分析与优化

    [转]MYSQL索引结构原理.性能分析与优化 第一部分:基础知识 索引 官方介绍索引是帮助MySQL高效获取数据的数据结构.笔者理解索引相当于一本书的目录,通过目录就知道要的资料在哪里, 不用一页一页 ...

随机推荐

  1. Nginx禁止直接通过IP地址访问网站

    介绍下在nginx服务器禁止直接通过IP地址访问网站的方法,以避免别人恶意指向自己的IP,有需要的朋友参考下. 有时会遇到很多的恶意IP攻击,在Nginx下可以禁止IP访问. Nginx的默认虚拟主机 ...

  2. 用JS实现表格的高亮显示

    1.所用事件详解 2.<thead>,<tbody>标签介绍 <thead> 标签定义表格的表头.该标签用于组合 HTML 表格的表头内容. thead 元素应该与 ...

  3. 停止Nginx服务

    查询nginx进程信息 chen@ubuntu:~$ ps -ef |grep nginx root : ? :: nginx: master process /usr/sbin/nginx -g d ...

  4. Xamarin Forms:小马过河,王者归来

    因为我媳妇的原因,去年下半年从零开始学习Android原生开发,做了一个答题库app.整体给我的感觉是入门难度不大,前期折腾一番,大部分时间都是花在开发上面,其实任何一门语言都是如此. 今年我又有另一 ...

  5. Node.js的mysql执行多表联合查询

    数据库(test)中的表结构(admin.user) //执行多表结合查询 var mysql = require('mysql'); var connection = mysql.createCon ...

  6. 将form转为ajax提交的js代码

    参考网络代码基础上进行修改,调试通过. 在html中插入下面的代码: 函数ajaxSubmit是submit的ajax形式. 注意:这里面使用到了jquery库 //<!--将form中的值转换 ...

  7. JAVA Web从前端到后台常用框架介绍

    原博客:https://blog.csdn.net/u013142781/article/details/50922010 一.SpringMVC http://blog.csdn.net/evank ...

  8. 用python脚本 从xls文件中读取数据

    导入 xlrd 第三方模块 import xlrd data = xlrd.open_workbook('test.xlsx') # 打开xls文件 table = data.sheets()[0] ...

  9. C++_IO与文件2-用cout进行输出

    C++将输出流看作是字节流,在程序中,很多数据被组织成比字节更大的单位. 例如int类型由16位或者32位的二进制值表示:double值由64位的二进制数据表示: 但是在将字节流发送给屏幕时,希望每个 ...

  10. Codeforces - 600E 树上启发式合并

    题意:求每一个子树存在最多颜色的颜色代号和(可重复) 本题是离线统计操作,因此可以直接合并重儿子已达到\(O(nlogn)\)的复杂度 PS.不知道什么是启发式合并的可以这样感受一下:进行树链剖分,分 ...