HashMap

内部结构

内部是一个Node数组,每个Node都是链表的头,当链表的大小达到8之后链表转变成红黑树。

put操作

final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 当table为空或者长度为0,执行resize
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 根据hash计算对应数组下标
if ((p = tab[i = (n - 1) & hash]) == null)
// 如果没有值,直接插入
tab[i] = newNode(hash, key, value, null);
else {
// 如果有值
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
// key存在,把当前节点引用存在e中
e = p;
else if (p instanceof TreeNode)
// 如果是树节点,插入树中。这里也一样,如果key冲突了,就返回冲突节点的引用,存储在e中
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 插入链表
for (int binCount = 0; ; ++binCount) {
// 插入到链表末尾
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 此时如果 binCount大于等于7(因为是从0开始),则将链表转变成红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 找到元素,break
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
// 向后遍历
p = e;
}
}
// 修改e所在位置的值(这个位置代码的作用就是处理链表中和树中的冲突key)
if (e != null) { // existing mapping for key
V oldValue = e.value;
// 新value覆盖旧value
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
// 返回旧value
return oldValue;
}
}
++modCount;
// 容量达到阈值,扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}

流程可以概括为:如果Node数组为空则先按照默认容量初始化数组。利用计算得到的hsah值确定数组下标,

1. 如果下标所在位置的Node为null,则直接新创建节点放在此处;

2. 如果下标所在位置的Node不为null,则判断是否已存在相同key的Node,有则临时存储冲突key涉及的Node的引用;

3. 如果key不冲突,则判断当前位置的Node的类型,如果为TreeNode,则将其插入树中,如果和树中已有的key冲突了,把涉及到的节点的引用返回并临时存储;如果不是TreeNode,则从头开始遍历链表,把新结点插入到链表尾部,插完之后判断是否达到链表的阈值,决定是否进行红黑树的转变。

4. 如果有冲突key需要处理,也就是临时变量存储的Node引用不为空,则用新value覆盖旧的value,并返回旧的value。

5. 如果没有冲突key,则判断添加完毕之后是否需要扩容。

下面说一下扩容

// 初始化或者加倍table的大小。如果table为空,则按照默认容量初始化;
// 如果table不为空,则根据规则把老数组的数据放到新数组中。
final Node<K,V>[] resize() {
// 老数组:扩容之前的数组
Node<K,V>[] oldTab = table;
// 如果老数组为空,老容量为0
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 老的扩容阈值,默认为0(扩容阈值=容量*负载因子,默认情况下达到容量的75%即需要扩容)
int oldThr = threshold;
int newCap, newThr = 0;
// 老容量大于0,也就是老数组不为空
if (oldCap > 0) {
// 如果老容量大于等于最大容量
if (oldCap >= MAXIMUM_CAPACITY) {
// 扩容阈值设置为Integer的最大值
threshold = Integer.MAX_VALUE;
// 返回旧容量
return oldTab;
}
// 新容量=2*旧容量;新容量小于最大容量 并且 老容量大于等于默认初始化容量(16)
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
// 新扩容阈值=2*老扩容阈值
newThr = oldThr << 1; // double threshold
}
// 如果老的扩容阈值大于0
else if (oldThr > 0) // initial capacity was placed in threshold
// 新容量 = 老的扩容阈值
newCap = oldThr;
else { // zero initial threshold signifies using defaults
// 老的扩容阈值等于0,也就是初始化的时候【这里可以看出,在这个地方进行了初始化的工作:设置默认容量,设置扩容阈值】
// 新容量等于默认的容量
newCap = DEFAULT_INITIAL_CAPACITY;
// 新的扩容阈值等于默认容量的75%
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
// 如果新扩容阈值等于0,则设置新的扩容阈值(新容量的75%)
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
// 更新扩容阈值!
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 按照新容量new了一个新的Node数组
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
// 更新table!
table = newTab;
// 第一次初始化为oldTab=null,不走这个
if (oldTab != null) {
// 这里才是真正意义上的扩容操作!
// 遍历老数组
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
// 老数组当前位置的元素不为null
if ((e = oldTab[j]) != null) {
// 置空,这里可以看出:table中存放的只是Node的引用
oldTab[j] = null;
// 如果没有后继元素
if (e.next == null)
// 根据当前元素的hash,放进新数组对应的位置
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
// 如果当前元素类型为TreeNode,主要分为两个部分:1. 将树进行节点拆分 2. 如果达到退化阈值6,将把红黑树退化成链表
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // 对链表的拆分,实际上和上一步类似,都是把原结构拆分成high和low两部分
// low链的head和tail
Node<K,V> loHead = null, loTail = null;
// high链的head和tail
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
// 查看循环条件可知:遍历原链表e,一直到最后e.next=null
do {
// 下一个节点
next = e.next;
// 根据条件:(e.hash & oldCap) == 0 把原链表划分成两部分
if ((e.hash & oldCap) == 0) {
if (loTail == null)
// low链表为空,直接放在头结点
loHead = e;
else
// 否则放在尾部
loTail.next = e;
// 移动尾指针
loTail = e;
}
else {
// 过程同上
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 把low链放在新表j的位置上。新表的下标位置与旧表一致都为j
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
// 把high链放在新表[j+oldCap]的位置上
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
// 返回新table
return newTab;
}

总结一下过程:

1. 如果table为null,则按照默认配置初始化,容量为16,扩容阈值为16*0.75=12【也就是添加完第13个元素的时候启动扩容】。

2. 如果table不为null:①、如果老容量大于0,则新容量=2*老容量,新扩容阈值=2*老扩容阈值。②、在不满足①的前提下,新容量=老的扩容阈值。③、在不满足①个②的前提下,初始化新容量为默认的16,新扩容阈值为12。

3. 如果新的扩容阈值为0,则将其设置为新容量的75%。然后更新HashMap的成员变量threshold为新的扩容阈值。

4. 利用前面计算出来的新容量,new一个新的Node数组。然后更新HashMap的成员变量table为新的数组。

5. 如果老数组里面有数据,则将老数组里的数据转移到新数组。遍历老数组,①:当前元素的后继为null,直接把当前元素放在新数组的e.hash & (newCap - 1)位置上。②:如果当前节点有后继元素并且元素类型为TreeNode,则按照树的规则进行拆分;如果元素数量达到阈值6,则退化成一个链表。③:如果当前节点有后继元素并且元素类型为Node,则按照(e.hash & oldCap) == 0规则将链表拆分为两部分,一部分放在新数组j的位置上,一部分放在新数组j+oldCap位置上。

6. 返回新数组。

简单来讲:

1. 当table需要初始化或者需要扩容的时候执行resize。初始化的时候按照默认值进行初始化(容量=16,扩容阈值=12);扩容的时候新容量是老容量的2倍,扩容阈值也是老扩容阈值的2倍。

2. 每次扩容都会新建一个数组,然后将老table中的元素re-hash到新的table中, 但元素在新旧table中的位置存在一定的联系:要么下标相同,要么相差一个oldCap(原table的大小)。

扩展一下hash方法

我们知道默认Object的hashCode()方法是个native方法,也有人说返回值是内存地址,但是事实上

JDK8 的默认hashCode的计算方法是通过和当前线程有关的一个随机数+三个确定值,运用Marsaglia's xorshift scheme随机数算法得到的一个随机数。

这位网友解读的很详细:https://www.jianshu.com/p/be943b4958f4

知道了hashCode的返回值是什么之后,回到HashMap的hash方法

static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

其返回值是key的hashCode与hashCode无符号右移16位的结果进行异或运算。

然后计算存储位置的方法 (n - 1) & hash,数组长度-1,和hash值进行按位与操作。

1. 无符号右移16位,异或运算

int h = new Object().hashCode();
int hh = h >>> 16;
int hash = h ^ hh;
System.out.println(h + "\t" + Integer.toBinaryString(h));
System.out.println(hh + "\t\t" + Integer.toBinaryString(hh));
System.out.println(hash + "\t" + Integer.toBinaryString(hash));

执行结果:

1880587981    1110000000101110111111011001101
28695 111000000010111
1880559322 1110000000101110000111011011010

以上代码取了一个hashCode,然后进行了无符号右移操作和异或操作。

h                      0111 0000 0001 0111 0111 1110 1100 1101

h >>> 16    0000 0000 0000 0000 0111 0000 0001 0111

右移16位,也就是保留了高区的16位。

按位异或:相同为0,不同为1。0^0=0, 1^1=0, 1^0=1, 0^1=1

h                        0111 0000 0001 0111 0111 1110 1100 1101

h >>> 16      0000 0000 0000 0000 0111 0000 0001 0111

h ^ (h >>> 16)    0111 0000 0001 0111 0000 1110 1101 1010

原hashCode和右移16位之后的结果做异或操作。也就是自己的高半区低半区做异或操作。混合原始哈希码的高位和低位,得到的结果:高位不变,低位是混合后的结果。

这一步的目的是增大低位的随机性,进而降低碰撞的几率

2. 按位与运算

hash & (n-1)

这一步骤利用上一步计算得到的hash值,和数组长度减1做按位与运算。

按位与:有0则0,无0则1。0&0=0, 0&1=0, 1&0=0, 1&1=1

16-1         0000 0000 0000 0000 0000 0000 0000

hash         0111 0000 0001 0111 0000 1110 1101

hash & (n-1)    0000 0000 0000 0000 0000 0000 0000

1010的十进制就是10

==================================

这一步的目的就是计算位置,而一般我们找位置,取模运算就可以了啊:hash % 16。为什么用按位与运算?

1. 位运算直接对内存数据进行操作,处理速度非常快。并且移位指令有更高的效率,因为移位指令占2个机器周期,而乘除法指令占4个机器周期。

2. 因为HashMap要求数组长度为2的幂,在这种情况下, hash & (n-1)  等价于 hash % n

两种方试都可以,当然选择效率高的方式了。

总结:对hashCode做右移16位,然后自己的高半区和低半区做异或,就是为了增加hashCode低位的随机性,减少hash碰撞的几率。而hashCode和数组长度减1做与运算,仅仅是因为与运算效率高于取模运算。

Hashtable

先来看默认构造方法

public Hashtable() {
this(11, 0.75f);
}

初始容量是11,并不是16。

HashMap计算位置用的是与运算,为了提高效率;HashTable为什么直接用取模运算呢?

HashTable默认的初始大小为11,之后每次扩容为原来的2n+1。这样,HashTable底层数组的大小维持在一个素数(在大于1的整数中,仅有1及其本身能将它整除的数)。

证明表示:当哈希表的大小为素数时,简单的取模哈希的结果会更加均匀。

添加操作

public synchronized V put(K key, V value) {
// HashTable不允许值为空
if (value == null) {
throw new NullPointerException();
}
// Makes sure the key is not already in the hashtable.
Entry<?,?> tab[] = table;
// 计算hash值
int hash = key.hashCode();
// 计算位置(不同:HashMap的做法是(n - 1) & hash)
int index = (hash & 0x7FFFFFFF) % tab.length;
@SuppressWarnings("unchecked")
Entry<K,V> entry = (Entry<K,V>)tab[index];
// 遍历数组位置的链表
for(; entry != null ; entry = entry.next) {
// 如果发现key已存在,则覆盖旧值
if ((entry.hash == hash) && entry.key.equals(key)) {
V old = entry.value;
entry.value = value;
return old;
}
}
// 检查扩容
addEntry(hash, key, value, index);
return null;
} private void addEntry(int hash, K key, V value, int index) {
// 修改次数+1
modCount++;
Entry<?,?> tab[] = table;
// 如果当前元素数量超过了扩容阈值
if (count >= threshold) {
// Rehash the table if the threshold is exceeded
rehash();
// 指向新table
tab = table;
hash = key.hashCode();
// 重新计算下标
index = (hash & 0x7FFFFFFF) % tab.length;
}
// Creates the new entry.
@SuppressWarnings("unchecked")
Entry<K,V> e = (Entry<K,V>) tab[index];
// 把元素添加到新位置
tab[index] = new Entry<>(hash, key, value, e);
// 元素数量+1
count++;
} protected void rehash() {
// 旧容量
int oldCapacity = table.length;
// 临时存储旧table数据
Entry<?,?>[] oldMap = table;
// 新容量 = 2 * oldCapacity + 1 (左移1位相当于乘2)
int newCapacity = (oldCapacity << 1) + 1;
// 检查新容量是否满足要求
if (newCapacity - MAX_ARRAY_SIZE > 0) {
if (oldCapacity == MAX_ARRAY_SIZE)
// Keep running with MAX_ARRAY_SIZE buckets
return;
newCapacity = MAX_ARRAY_SIZE;
}
Entry<?,?>[] newMap = new Entry<?,?>[newCapacity];
modCount++;
// 新的扩容阈值 = 新容量 * 扩容因子(默认0.75)
threshold = (int)Math.min(newCapacity * loadFactor, MAX_ARRAY_SIZE + 1);
// 替换旧table
table = newMap;
// 重新规划元素位置
for (int i = oldCapacity ; i-- > 0 ;) {
for (Entry<K,V> old = (Entry<K,V>)oldMap[i] ; old != null ; ) {
Entry<K,V> e = old;
old = old.next;
int index = (e.hash & 0x7FFFFFFF) % newCapacity;
e.next = (Entry<K,V>)newMap[index];
newMap[index] = e;
}
}
}

过程:

0. 首先线程安全的保证是synchronized关键字

1. 对key取hash值,hash值和0x7FFFFFFF做与运算(目的是得出一个正整数),其结果与数组容量做取模运算得出index。

2. 遍历index位置的链表,判断key是否已存在。

3. 如果当前存储的元素数量大于等于扩容阈值,则进行扩容

  - 新容量 = 2* 旧容量 + 1,新扩容阈值 = 新容量 * 0.75

  - 把旧数组中的元素rehash放进新数组中

4. 扩容之后,根据传入的key重新计算下标,并放入新数组中。

get元素

public synchronized V get(Object key) {
Entry<?,?> tab[] = table;
// 取hash
int hash = key.hashCode();
// 计算下标
int index = (hash & 0x7FFFFFFF) % tab.length;
// 遍历目标位置的链表,找到即返回
for (Entry<?,?> e = tab[index] ; e != null ; e = e.next) {
if ((e.hash == hash) && e.key.equals(key)) {
return (V)e.value;
}
}
return null;
}

小结:

总体来说没有HashMap复杂,有意思的地方是容量为素数,计算下标用的取模。扩容为旧容量的2倍+1。

LinkedHashMap

成员变量

/**
* LinkedHashMap 继承了 HashMap.Node
*/
static class Entry<K,V> extends HashMap.Node<K,V> {
// 前驱后继,双向链表特征
Entry<K,V> before, after;
Entry(int hash, K key, V value, Node<K,V> next) {
super(hash, key, value, next);
}
} // transient关键字标记的成员变量不参与序列化过程 // 表头
transient LinkedHashMap.Entry<K,V> head;
// 表尾
transient LinkedHashMap.Entry<K,V> tail;

put【实际上调用的是HashMap的put方法】

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 1. table初始化,LinkedHashMap的数据依然存储在数组上,没想到吧
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 2. 下标位置为null,新建node【这个newNode方法被LinkedHashMap重写】
if ((p = tab[i = (n - 1) & hash]) == null)
// 调用LinkedHashMap#newNode
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
// 3. 在红黑树结构中,LinkedHashMap也重写了其中newTreeNode方法:LinkedHashMap#newTreeNode
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
// 4. 在已存在的链表结构里插入也是调用 LinkedHashMap#newNode
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
// 节点插入后置处理【LinkedHashMap重写】
afterNodeInsertion(evict);
return null;
} Node<K,V> newNode(int hash, K key, V value, Node<K,V> e) {
LinkedHashMap.Entry<K,V> p =
new LinkedHashMap.Entry<K,V>(hash, key, value, e);
// 连接到表尾
linkNodeLast(p);
return p;
}
private void linkNodeLast(LinkedHashMap.Entry<K,V> p) {
LinkedHashMap.Entry<K,V> last = tail;
// 尾指针指向新元素
tail = p;
if (last == null)
// 链表为空,则初始化头指针
head = p;
else {
// 新元素的前驱指向老尾巴
p.before = last;
// 老尾巴的后继指向新元素
last.after = p;
}
} // 而对于红黑树,LinkedHashMap依然重新了其 newTreeNode 方法
TreeNode<K,V> newTreeNode(int hash, K key, V value, Node<K,V> next) {
TreeNode<K,V> p = new TreeNode<K,V>(hash, key, value, next);
linkNodeLast(p);
return p;
}

虽然调用的是HashMap的put方法,内部数据存储结构依然是数组,但是仅仅重写了newNode方法就实现了双向链表的逻辑。

remove方法【直接调用的HashMap的remove方法】

public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
} final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node<K,V>[] tab; Node<K,V> p; int n, index;
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e; K k; V v;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
// 下标位置的node
node = p;
else if ((e = p.next) != null) {
// 从红黑树中寻找
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
// 从数组链表中寻找
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
// 记录当前元素的前驱
p = e;
} while ((e = e.next) != null);
}
}
// 找到之后
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
// 从红黑树中移除
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
// 在下标位置,node的后继成为数组下标位置的元素
tab[index] = node.next;
else
// 在链表中,node前驱的next指向node的后继
p.next = node.next;
++modCount;
--size;
// 移除node之后的处理【重写方法:LinkedHashMap#afterNodeRemoval】
afterNodeRemoval(node);
return node;
}
}
return null;
} // 删除node,连接其前驱和后继【LinkedHashMap#afterNodeRemoval】
void afterNodeRemoval(Node<K,V> e) { // unlink
// 先记录好node的前驱和后继
LinkedHashMap.Entry<K,V> p =
(LinkedHashMap.Entry<K,V>)e, b = p.before, a = p.after;
p.before = p.after = null; if (b == null)
// 前驱为空,则head直接指向node的后继,也就是a
head = a;
else
// 前驱不为空,则node前驱的after指向node的后继
b.after = a; if (a == null)
// 如果后继为空,则tail指向node的前驱,也就是b
tail = b;
else
// 后继不为空,则node后继的前驱指向node的前驱
a.before = b;
}

由此可见:添加和删除都需要处理两部分逻辑(物理结构和逻辑结构)

添加:放入HashMap内部数组中存储 & LinkedHashMap处理链表连接关系
删除:从HashMap内部数组中删除 & LinkedHashMap处理链表连接关系

优点:按照添加顺序排列;随机查找效率高,注意人家get方法也是计算hash值的,而不是顺序遍历链表结构;

缺点:插入和删除效率差一些,因为除了要维护HashMap内部存储结构,还要维护LinkedHashMap的链表逻辑结构。

WeakHashMap

先来个小测试

Map<String, String> map = new WeakHashMap<>();
String s = new String("key");
map.put(s, "value");
System.gc();
System.out.println("有外部引用的key,不会被回收:" + map);
// 置空外部引用
s = null;
System.gc();
System.out.println("外部引用置空,key被回收:" + map);
map.put(new String("key"), "value");
System.gc();
System.out.println("没有外部引用,key被回收:" + map);
s = "key";
map.put(s, "value");
System.gc();
System.out.println("常量池里的无法被回收:" + map);

输出:

[Full GC (System.gc())  4096K->1315K(8192K), 0.0065595 secs]
[Eden: 4096.0K(24.0M)->0.0B(3072.0K) Survivors: 0.0B->0.0B Heap: 4096.0K(128.0M)->1315.8K(8192.0K)], [Metaspace: 3395K->3395K(1056768K)]
[Times: user=0.00 sys=0.00, real=0.01 secs]
有外部引用的key,不会被回收:{key=value}
[Full GC (System.gc()) 1438K->1055K(8192K), 0.0033753 secs]
[Eden: 1024.0K(3072.0K)->0.0B(3072.0K) Survivors: 0.0B->0.0B Heap: 1438.7K(8192.0K)->1055.8K(8192.0K)], [Metaspace: 3410K->3410K(1056768K)]
[Times: user=0.08 sys=0.00, real=0.00 secs]
外部引用置空,key被回收:{}
[Full GC (System.gc()) 1178K->1051K(8192K), 0.0038189 secs]
[Eden: 1024.0K(3072.0K)->0.0B(3072.0K) Survivors: 0.0B->0.0B Heap: 1178.8K(8192.0K)->1051.9K(8192.0K)], [Metaspace: 3411K->3411K(1056768K)]
[Times: user=0.00 sys=0.00, real=0.00 secs]
没有外部引用,key被回收:{}
[Full GC (System.gc()) 1174K->1052K(8192K), 0.0029810 secs]
[Eden: 1024.0K(3072.0K)->0.0B(3072.0K) Survivors: 0.0B->0.0B Heap: 1174.8K(8192.0K)->1052.5K(8192.0K)], [Metaspace: 3448K->3448K(1056768K)]
[Times: user=0.00 sys=0.00, real=0.00 secs]
常量池里的无法被回收:{key=value}

下面看内部结构

构造方法

public WeakHashMap() {
// 默认容量16,负载因子0.75
this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR);
}

弱引用相关

// Entry数组
Entry<K,V>[] table; // 弱引用队列:检测到可达性更改后,垃圾收集器将注册的引用对象追加到该队列
private final ReferenceQueue<Object> queue = new ReferenceQueue<>(); // Entry对象继承了WeakReference
private static class Entry<K,V> extends WeakReference<Object> implements Map.Entry<K,V> {
V value;
final int hash;
Entry<K,V> next; /**
* Creates new entry.
*/
Entry(Object key, V value,
ReferenceQueue<Object> queue,
int hash, Entry<K,V> next) {
// 将key作为referent,GC将对referent进行特殊处理
super(key, queue);
this.value = value;
this.hash = hash;
this.next = next;
} ...
}

以上就是实现弱引用Map的关键了。

put方法

public V put(K key, V value) {
// 允许key为空
Object k = maskNull(key);
// 对key取hash
int h = hash(k);
// 获取当前table,其中包含一个处理过期Entry的过程
Entry<K,V>[] tab = getTable();
// 计算下标:hash & (len - 1)
int i = indexFor(h, tab.length);
// 判断该位置的链表是否已存在key,已存在则覆盖旧值
for (Entry<K,V> e = tab[i]; e != null; e = e.next) {
if (h == e.hash && eq(k, e.get())) {
V oldValue = e.value;
if (value != oldValue)
e.value = value;
return oldValue;
}
}
// 修改次数+1
modCount++;
Entry<K,V> e = tab[i];
// 最后一个参数e代表next,所以可以看出这里的链表是头插法
tab[i] = new Entry<>(k, value, queue, h, e);
// 如果达到扩容阈值,则进行扩容,新容量 = 2 * 旧容量
if (++size >= threshold)
resize(tab.length * 2);
return null;
} void resize(int newCapacity) {
Entry<K,V>[] oldTable = getTable();
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return;
}
// 新建一个数组
Entry<K,V>[] newTable = newTable(newCapacity);
// 这一步,对旧数组中的元素进行rehash操作,根据重新计算得到的下标放进新数组
transfer(oldTable, newTable);
table = newTable; // 如果元素数量大于等于扩容阈值的一半
if (size >= threshold / 2) {
// 扩容阈值更新为新容量的75%
threshold = (int)(newCapacity * loadFactor);
} else { // * 如果忽略空元素并处理ref队列导致大量收缩,则恢复旧表。这种情况应该很少见,但是可以避免无限地扩展充满垃圾的表。 // 从表中删除过期的Entry
expungeStaleEntries();
// 删除之后元素变少,把元素rehash进旧表
transfer(newTable, oldTable);
// 恢复旧表
table = oldTable;
}
}

过程:

1. 对key取hash 并和 数组长度减1与操作得出下标。

2. 获取当前的数组

3. 下标位置不为空,判断key是否已存在,已存在则覆盖旧值。

4. 下标位置为空,则new一个Entry对象,采用头插法插入链表。

5. 扩容操作

  - 新容量 = 2*旧容量,按照新容量来新建一个Entry数组。

  - 对旧数组中的元素进行rehash操作,根据新计算得到的下标放进新数组

  - 考虑到弱引用回收的情况,回收导致新数组元素急剧减少,则需要恢复旧表

.

集合类源码(六)Map(HashMap, Hashtable, LinkedHashMap, WeakHashMap)的更多相关文章

  1. Java集合类源码解析:HashMap (基于JDK1.8)

    目录 前言 HashMap的数据结构 深入源码 两个参数 成员变量 四个构造方法 插入数据的方法:put() 哈希函数:hash() 动态扩容:resize() 节点树化.红黑树的拆分 节点树化 红黑 ...

  2. 接口java.util.Map的四个实现类HashMap Hashtable LinkedHashMap TreeMap

    java中HashMap,LinkedHashMap,TreeMap,HashTable的区别 :java为数据结构中的映射定义了一个接口java.util.Map;它有四个实现类,分别是HashMa ...

  3. Java集合类源码分析

    常用类及源码分析 集合类 原理分析 Collection   List   Vector 扩充容量的方法 ensureCapacityHelper很多方法都加入了synchronized同步语句,来保 ...

  4. Java 集合系列14之 Map总结(HashMap, Hashtable, TreeMap, WeakHashMap等使用场景)

    概要 学完了Map的全部内容,我们再回头开开Map的框架图. 本章内容包括:第1部分 Map概括第2部分 HashMap和Hashtable异同第3部分 HashMap和WeakHashMap异同 转 ...

  5. 【java集合框架源码剖析系列】java源码剖析之HashMap

    前言:之所以打算写java集合框架源码剖析系列博客是因为自己反思了一下阿里内推一面的失败(估计没过,因为写此博客已距阿里巴巴一面一个星期),当时面试完之后感觉自己回答的挺好的,而且据面试官最后说的这几 ...

  6. RocketMQ源码 — 六、 RocketMQ高可用(1)

    高可用究竟指的是什么?请参考:关于高可用的系统 RocketMQ做了以下的事情来保证系统的高可用 多master部署,防止单点故障 消息冗余(主从结构),防止消息丢失 故障恢复(本篇暂不讨论) 那么问 ...

  7. JDK8集合类源码解析 - HashSet

    HashSet 特点:不允许放入重复元素 查看源码,发现HashSet是基于HashMap来实现的,对HashMap做了一次“封装”. private transient HashMap<E,O ...

  8. jdk1.8.0_45源码解读——Map接口和AbstractMap抽象类的实现

    jdk1.8.0_45源码解读——Map接口和AbstractMap抽象类的实现 一. Map架构 如上图:(01) Map 是映射接口,Map中存储的内容是键值对(key-value).(02) A ...

  9. 【集合框架】JDK1.8源码分析之HashMap(一) 转载

    [集合框架]JDK1.8源码分析之HashMap(一)   一.前言 在分析jdk1.8后的HashMap源码时,发现网上好多分析都是基于之前的jdk,而Java8的HashMap对之前做了较大的优化 ...

随机推荐

  1. tkinter中的messagebox

    from tkinter import * from tkinter import messagebox def myMsg(): messagebox.showinfo("My Messa ...

  2. 我的第一次diy装机记录——小白的装机篇

    接上一篇<我的第一次diy装机记录——小白的配置篇> 处理器 AMD Ryzen 5 2600X 六核主板 微星 B450M MORTAR (MS-7B89) ( AMD PCI 标准主机 ...

  3. sed 常用命令 网址

    https://wangchujiang.com/linux-command/c/sed.html https://linux.cn/article-11367-1.html https://juej ...

  4. Rust中的枚举及模式匹配

    这个enum的用法,比c要强,和GO类似. enum Coin { Penny, Nickel, Dime, Quarter, } fn value_in_cents(coin: Coin) -> ...

  5. 201871010106-丁宣元 《面向对象程序设计(java)》第十六周学习总结

    201871010106-丁宣元 <面向对象程序设计(java)>第十六周学习总结 正文开头: 项目 内容 这个作业属于哪个课程 https://home.cnblogs.com/u/nw ...

  6. 201871020225-牟星源《面向对象程序设计(java)》第十周学习总结

    201871020225-牟星源<面向对象程序设计(java)>第十周学习总结 博文正文开头: 项目 内容 这个作业属于哪个课程 https://www.cnblogs.com/nwnu- ...

  7. eth0: ERROR while getting interface flags: No such device的解决方法、Linux怎么修改IP以及ping不通的处理方法

    首先输入ifconfig命令查看当前的ip信息 发现没有eth0这个网卡设备,有ens33 接着输入命令:ifconfig ens33 192.168.2.110    --  修改临时ip地址,系统 ...

  8. golang 登录

    用户的两种登录模式 1.LDAP登录 //ldapLogin 通过LDAP登陆 func (m *Member) ldapLogin(account string, password string) ...

  9. 【转载】深度解读 java 线程池设计思想及源码实现

    总览 开篇来一些废话.下图是 java 线程池几个相关类的继承结构: 先简单说说这个继承结构,Executor 位于最顶层,也是最简单的,就一个 execute(Runnable runnable) ...

  10. Mysql数据库基础命令

    删除一个表: drop table if exists 表名; 在表中插入行: Insert into 表名 values(, , ,) 创建表: Create table 表名( Id int(10 ...