HashMap源码深度剖析,手把手带你分析每一行代码,包会!!!
HashMap
源码深度剖析,手把手带你分析每一行代码!
在前面的两篇文章哈希表的原理和200行代码带你写自己的HashMap
(如果你阅读这篇文章感觉有点困难,可以先阅读这两篇文章)当中我们仔细谈到了哈希表的原理并且自己动手使用线性探测法实现了我们自己的哈希表MyHashMap
。在本篇文章当中我们将仔细分析JDK
当中HashMap
的源代码。
首先我们需要了解的是一个容器最重要的四个功能 增删改查
,而我们也是主要根据这四个功能进行展开一步一步的剖析HashMap
的源代码。在正式进行源码分析之前,先提一下:在JDK
当中实现的HashMap
解决哈希冲突的办法是使用链地址法
,而我们自己之前在文章200行代码带你写自己的HashMap
当中实现的MyHashMap
解决哈希冲突的办法是线性探测法,大家注意一下这两种方法的不同。
HashMap
源码类中关键字段分析
- 下面字段表示默认的哈希表的长度,也就是
HashMap
底层使用数组的默认长度,在HashMap
当中底层所使用的的数组的长度必须是2
的整数次幂,这一点我们在文章200行代码带你写自己的HashMap
已经仔细做出了说明。
/**
* The default initial capacity - MUST be a power of two.
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
- 这个字段表示哈希表当中数组的最大长度,
HashMap
底层使用的数组长度不能超过这个值。
/**
* The maximum capacity, used if a higher value is implicitly specified
* by either of the constructors with arguments.
* MUST be a power of two <= 1<<30.
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
- 字段
DEFAULT_LOAD_FACTOR
的作用表示在HashMap
当中默认的负载因子的值。
/**
* The load factor used when none specified in constructor.
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
在实际情况当中我们并不是当HashMap
当中的数组完全被使用完之后才进行扩容,因为如果数组快被使用完之后,再加入数据产生哈希冲突的可能性就会很大,因此我们通常会设置一个负载因子(load factor)
,当数组的使用率超过这个值的时候就进行扩容,即当(数组长度为L
,数组当中数据个数为S
,负载因子为F
):
\]
TREEIFY_THRESHOLD
这个字段主要表示将链表(在JDK
当中是采用链地址法去解决哈希冲突的问题)变成一个红黑树(如果你不了解红黑树,可以将其认为是一种平衡二叉树)的条件,在JDK1.8
之后JDK
中实现HashMap
不仅采用链地址法去解决哈希冲突,而且链表满足一定条件之后会将链表变成一颗红黑树。而将链表变成一颗红黑树的必要条件
是链表当中数据的个数要大于等于TREEIFY_THRESHOLD
,请大家注意是必要条件
不是充分条件
,也就是说满足这个条件还不行,它还需要满足另外一个条件,就是哈希表中数组的长度要大于等于MIN_TREEIFY_CAPACITY
,MIN_TREEIFY_CAPACITY
在JDK
当中的默认值是64。
/**
* The bin count threshold for using a tree rather than list for a
* bin. Bins are converted to trees when adding an element to a
* bin with at least this many nodes. The value must be greater
* than 2 and should be at least 8 to mesh with assumptions in
* tree removal about conversion back to plain bins upon
* shrinkage.
*/
static final int TREEIFY_THRESHOLD = 8;
/**
* The smallest table capacity for which bins may be treeified.
* (Otherwise the table is resized if too many nodes in a bin.)
* Should be at least 4 * TREEIFY_THRESHOLD to avoid conflicts
* between resizing and treeification thresholds.
*/
static final int MIN_TREEIFY_CAPACITY = 64;
UNTREEIFY_THRESHOLD
表示当在进行resize
操作的过程当中,红黑树当中的节点个数小于UNTREEIFY_THRESHOLD
时,就需要将一颗红黑树重新恢复成链表。
/**
* The bin count threshold for untreeifying a (split) bin during a
* resize operation. Should be less than TREEIFY_THRESHOLD, and at
* most 6 to mesh with shrinkage detection under removal.
*/
static final int UNTREEIFY_THRESHOLD = 6;
- 下列代码单重的
table
数组对象就是HashMap
底层当中真正用于存储数据的数组。
/**
* The table, initialized on first use, and resized as
* necessary. When allocated, length is always a power of two.
* (We also tolerate length zero in some operations to allow
* bootstrapping mechanics that are currently not needed.)
*/
transient Node<K,V>[] table;
size
表示哈希表中存储的key-value
对象的个数,也就是放入了多少个键值对象。
/**
* The number of key-value mappings contained in this map.
*/
transient int size;
threshold
表示容器当中能够存储的数据个数的阈值,当HashMap
当中存储的数据的个数超过这个值的时候,HashMap
底层使用的数组就需要进行扩容。下列公式中Capacity
表示底层数组的长度(2
的整数次幂,注意与size
进行区分)。
\]
int threshold;
/**
* The load factor for the hash table.
*
* @serial
*/
final float loadFactor;
HashMap
底层数组当中的节点类
在上篇哈希表的设计原理当中我们已经仔细说明,在HashMap
当中我们是使用数组去存储具体的数据的,那么在我们的数组当中应该存储什么样的数据呢?假设在HashMap
的数组当中存储的数据类型为Node
,那么这个类需要有哪些字段呢?
首先一点我们肯定需要存储
Value
值,因为我们最终需要通过get
方法从HashMap
当中取出我们所需要的值。第二点当我们通过
get
方法去取值的时候是通过Key
(键值)去取的,当哈希值产生冲突的时候,我们不仅需要通过哈希值确定位置,还需要通过比较通过函数get
传递的Key
和数组当当中存储的数据的key
是否相等,因此我们需要存储键值Key
。第三点为了避免重复计算哈希值(因为有的对象的哈希值计算还是比较费时间),我们可以使用一个字段去存储计算好的哈希值。
基于以上三点,在JDK
当中的HashMap
内部的节点类主要结构如下。
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
我们用下面两行代码说明上面类的结构:
HashMap<String, Integer> map = new HashMap<>();
map.put("一无是处的研究僧", 888);
在上面的代码当中put
函数的参数"一无是处的研究僧"
就是上面Node
类当中的key
,888
就是Node
类当中的value
对象,上面的类当中的hash
对象就是字符串"一无是处的研究僧"
的哈希值,但是事实上他还需要经过一段代码的处理:
/**
* 这个 key 是 put 函数传进来的 key
* @param key
* @return
*/
static int hash(Object key) {
int h;
// 调用对象自己实现的 hashCode 方法
// key.hashCode() = "一无是处的研究僧".hashCode
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
上面的函数之所以要将对象的哈希值右移16
,是因为我们的数组的长度一般不会超过\(2^{16}\),因为\(2^{16}\)已经是一个比较大的值了,因此当哈希值与\(2^n - 1\)进行&
操作的时候,高位通常没有使用到,这样做的原理是可以充分利用数据哈希值当中的信息。
tableSizeFor
函深入剖析
/**
* Returns a power of two size for the given target capacity.
*/
/**
* 返回第一个大于或者等于 capacity 且为 2 的整数次幂的那个数
* @param capacity
* @return
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
// 如果最终得到的数据小于 0 则初始长度为 1
// 如果长度大于我们所允许的最大的容量 则将初始长度设置为我们
// 所允许的最大的容量
// MAXIMUM_CAPACITY = 1 << 30;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
因为我们需要底层使用的数组table
的长度是2
的整数次幂,而我们之后在初始化函数当中会允许用户输入一个数组长度的大小,但是用户输入的数字可能不是2
的整数次幂,因此我们需要将用户输入的数据变成2
的整数次幂,我们可以将用户输入的数据变成大于等于这个数的最小的2
的整数次幂。
比如说如果用户输入的是12
我们需要将其变成16
,如果输入的是28
我们需要将其变成32
。我们可以通过上面的函数做到这一点。
上面的代码还是很难理解的,让我们一点一点的来分析。首先我们使用一个2
的整数次幂的数进行上面移位操作
的操作!
从上图当中我们会发现,我们咋一个数的二进制数的32位放一个1
,经过移位之后最终32
位的比特数字全部变成了1
。根据上面数字变化的规律我们可以发现,任何一个比特经过上面移位的变化,这个比特后面的31
个比特位都会变成1
,像下图那样:
因此上述的移位操作的结果只取决于最高一位的比特值为1
,移位操作后它后面的所有比特位的值全为1
,而在上面函数的最后,如果最终的容量没有大于我们设置的最大容量MAXIMUM_CAPACITY
,我们返回的结果就是上面移位之后的结果 +1
。又因为移位之后最高位的1
到最低位的1
之间的比特值全为1
,当我们+1
之后他会不断的进位,最终只有一个比特位置是1
,因此它是2
的整数倍。
在tableSizeFor
函数当中,给初始容量减了个1
,这样做的原因是让这个函数的返回值大于等于传入的参数capacity
:
tableSizeFor(4) == 4 // 就是当传入的数据已经是 2 的整数次幂的时候也返回传入的值
tableSizeFor(3) == 4
tableSizeFor(5) == 8
HashMap
构造函数分析
首先我们先看一下几个构造函数的代码:
public HashMap(int initialCapacity) {
// 指定初始容量的构造函数
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
// 如果大于允许的最大容量,就将数组的长度这是为最大容量
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
// 这里本来应该将 threshold 的值设置为数组长度的 * load factor,
// 但是在 HashMap 的源代码当中
// 并没有一个变量存储数组的长度,因为数组的长度直接 array.length
// 就可以得到,因此也没必要,而在 HashMap 当中,使用懒加载
// 只有在使用 put 函数的时候才申请数组 因此需要一个变量存储数组的长度
// 而此时 threshold 并没有使用,因此可以临时用于存储 数组的长度
// 在后面申请数组是,将 threshold 更新为 数组长度 * load factor
this.threshold = tableSizeFor(initialCapacity);
}
HashMap
的构造函数整体来说比较简单,但是上面代码当中最后一行很容易让人迷惑,具体原因在上面的注释当中已经说明了,大家可以阅读一下。
HashMap
的增删改查函数分析
put
函数分析——“增改”
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
在put
函数当中首先计算参数key
的哈希值,然后调用putVal
函数真正的将输入插入到数据当中,为了方便大家于都代码,代码解释在代码当中对应的位置。
在正式阅读这个代码之前我们先分析这个函数的流程:
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
// 我们先只管前面三个参数,后的参数可以先不管
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 这里是首次调用函数 putVal 的时候这个 if 条件会通过
// 因为第一次调用这个函数的时候还没有申请数组 所以 table == null
if ((tab = table) == null || (n = tab.length) == 0)
// 进行扩容
n = (tab = resize()).length;
// 如果计算出的下标对应数据还没有村数据直接将数据加入到数组
// 当中即可
// 这行代码不仅会将tab[i = (n - 1) & hash] 的结果赋值给 p
// (p = tab[i = (n - 1) & hash]) 这行代码的返回值也是 tab[i = (n - 1) & hash]
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
// 如果对应位置当中已经存在数据了
// 即产生了哈希冲突,要采用链地址法进行解决
Node<K,V> e; K k;
// 如果传入的哈希值和对应下标的数据的哈希值相等
// 而且两个 key 相等,这个 if 语句的条件就满足了
// 然后将对应下标的数据赋值给 e 然后在后续的代码当中
// 更新 e 当中的 value 为 putVal 函数传入的 value
// 即 e.value = value;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
// 如果 p 是一个红黑树节点,就在红黑树当中放入数据
// 在本篇文章当中我们不仔细去讨论这个函数,因为红黑树
// 的操作比较复杂,我们之后再专门写一篇关于红黑树的文章来讲解这个问题
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 这里就是链表的操作了
for (int binCount = 0; ; ++binCount) {
// 如果 e.next == null 说明已经遍历到最后一个节点了
// 需要将新加入的
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 如果节点数超过 TREEIFY_THRESHOLD 就需要进行后续的操作
// 在 treeifyBin 函数当中会有一个判断,如果数组的长度大于
// MIN_TREEIFY_CAPACITY 就将链表变成红黑树,否则直接进行扩容
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 如果找到相同的 key 就跳出去
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 当存在一个对象的 key 和传进这个函数的 key 相同的话
// 就需要进行 value 的更新,相当于将新的 value 替换掉旧的
// value
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 如果容器当中数据的数量大于阈值的话就进行扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict); // 这个函数在 HashMap 没啥用,他的函数体为空
return null;
}
resize
扩容函数分析
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
// 旧数组的数组长度
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 旧的扩容的阈值
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
// 上面的代码主要是计算得到新的阈值 newThr 和数组长度 newCap
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 开辟新的数组空间
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
// 现在需要将旧数组当中的数据加入到新数组
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
// e.next == null 表示只有一个数据,并没有形成 2 个
// 数据以上的链表,因此可以直接加入到心得数组 当中
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
// 如果节点是红黑树节点,则在将红黑树当中的节点加入到新数组当中
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
// 链表的代码比较复杂,大家可以看下面的分析
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
扩容时链表数据的下标分析
为了解释上面的链表的从旧数组移动到新数组的过程,我们先通过下面的例子来分析一下:
现在有一个哈希表在工作时候的情况,在进行扩容之前他的结构如下图所示:
在扩容之前数组的长度等于8,那么乘以2倍扩容之后,数组的长度应该变成16,而且链表当中的数据需要进行重新&
的操作,再将其放在新的数组当中,扩容重新进行&
操作之后数组的情况如下图所示:
从上面的两张图我们可以发现,与元素的哈希值进行&
运算的数组长度减1
的二进制数表示会多出一个1
,即:
\]
\]
如果数据的哈希值对应的位置也是1
比如上图当中数据2、4、6
的情况,那么我们在确定数据在新数组当中的位置的时候不需要重新进行&
运算,只需要在旧数组的位置加上原数组的长度就是数据在新数组当中的位置。为什么?
从上图我们可以发现扩容前后与key
的哈希值进行&
操作的数据的二进制数只是在高位增加了一个1
,因此我们直接将原数组的下标加上这个高位1
对应的10进制数(这个十进制数对应就是原数组的长度)就得到的数据在新数组的下标。而如果哈希值的二进制表示当中相应的高位的比特值为0
,那么扩容前后他在数组当中的位置是没有发生变化的。
而能进行上面谈到的操作的数据需要满足一个特点就是数据的哈希值对应的高位也是1
,才能进行这个操作。这也是下面代码的if
判断的内容:
// 和数组的长度进行&操作看看高位是不是0
if ((e.hash & oldCap) == 0) {
// 如果对应的高位为0
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
// 如果对应的高位为 1
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
链表扩容代码变量分析
上面的代码涉及四个节点loTail和loHead
,hiTail和hiHead
的相关操作,首先我们先弄清楚这四个变量的含义是什么。
从上面扩容前后链表当中的数据下标分析我们可以知道,一个链表在扩容之后会放在新数组的两个位置,如果链表数据在旧数组下标为x
的位置,旧数组的长度为L
,那么扩容之后数据在新数组的位置分别为x
和x + L
的位置,整个的扩容过程和loTail和loHead
,hiTail和hiHead
的指向如下图所示:
loTail和loHead
新数组当中下标为x
的链表的表尾和表头,hiTail和hiHead
表示下标为x + L
的链表的表尾和表头。
看到现在相信你已经能看懂下面的代码了:
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
get
函数分析——“查”
如果你已经看懂了put
和resize
函数,这个函数就很简单了。
- 首先计算数据在数组当中的下标值
(n - 1) & hash
。 - 如果下标中第一个节点的
key
就等于参数传入的key
,就直接返回数据。 - 如果节点是红黑树当中的节点就通过红黑树进行查找,否则就是链表节点,然后通过链表的方式查找。
- 找到相同的
key
数据,将结果返回。
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
remove
函数分析——“删”
整个函数分成一下两个步骤:
- 先找到要删除的节点。
- 删除找到的节点。
大家在理解上面“增改查”三个操作之后,下面的代码很容易理解了,下面代码有注释帮助大家理解。
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
// matchValue 这个参数如果为 true 表示传入的参数 value
// 和查找到的数据的 value 相等才进行删除
Node<K,V>[] tab; Node<K,V> p; int n, index;
// 先找到节点
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e; K k; V v;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
// 删除节点
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
tab[index] = node.next;
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
总结
本篇文章主要跟大家一起分析了HashMap
当中主要的源代码,主要涉及四个操作增删改查
,但是没有仔细分析关系红黑树的部分,因为红黑树涉及的部分比较多,本篇文章已经比较长了,以后专门写一篇文章仔细分析红黑树的部分。
在HashMap
当中有很多写的很巧妙的代码,比如说tableSizeFor
函数,扩容的时候两条链表的操作,这些设计都非常巧妙,希望大家有所收获。我是LeHung,我们下期再见!!!
更多精彩内容合集可访问:https://github.com/Chang-LeHung/CSCore。
关注微信公众号:一无是处的研究僧,了解更多计算机知识~~~~
HashMap源码深度剖析,手把手带你分析每一行代码,包会!!!的更多相关文章
- ThreadLocal源码深度剖析
ThreadLocal源码深度剖析 ThreadLocal的作用 ThreadLocal的作用是提供线程内的局部变量,说白了,就是在各线程内部创建一个变量的副本,相比于使用各种锁机制访问变量,Thre ...
- Axios源码深度剖析
Axios源码深度剖析 - XHR篇 axios 是一个基于 Promise 的http请求库,可以用在浏览器和node.js中,目前在github上有 42K 的star数 分析axios - 目录 ...
- libevent 源码深度剖析十三
libevent 源码深度剖析十三 —— libevent 信号处理注意点 前面讲到了 libevent 实现多线程的方法,然而在多线程的环境中注册信号事件,还是有一些情况需要小心处理,那就是不能在多 ...
- libevent源码深度剖析十二
libevent源码深度剖析十二 ——让libevent支持多线程 张亮 Libevent本身不是多线程安全的,在多核的时代,如何能充分利用CPU的能力呢,这一节来说说如何在多线程环境中使用libev ...
- libevent源码深度剖析十一
libevent源码深度剖析十一 ——时间管理 张亮 为了支持定时器,Libevent必须和系统时间打交道,这一部分的内容也比较简单,主要涉及到时间的加减辅助函数.时间缓存.时间校正和定时器堆的时间值 ...
- libevent源码深度剖析十
libevent源码深度剖析十 ——支持I/O多路复用技术 张亮 Libevent的核心是事件驱动.同步非阻塞,为了达到这一目标,必须采用系统提供的I/O多路复用技术,而这些在Windows.Linu ...
- libevent源码深度剖析九
libevent源码深度剖析九 ——集成定时器事件 张亮 现在再来详细分析libevent中I/O事件和Timer事件的集成,与Signal相比,Timer事件的集成会直观和简单很多.Libevent ...
- libevent源码深度剖析八
libevent源码深度剖析八 ——集成信号处理 张亮 现在我们已经了解了libevent的基本框架:事件管理框架和事件主循环.上节提到了libevent中I/O事件和Signal以及Timer事件的 ...
- libevent源码深度剖析七
libevent源码深度剖析七 ——事件主循环 张亮 现在我们已经初步了解了libevent的Reactor组件——event_base和事件管理框架,接下来就是libevent事件处理的中心部分 — ...
随机推荐
- 攻防世界-MISC:pure_color
这是攻防世界高手进阶区的第六题,题目如下: 点击下载附件一,得到一张空白的png图片 用StegSolve打开,然后点击箭头(如下图所示) 多点击几次,即可得到flag 所以,这道题的flag如下: ...
- 批量安装Windows系统
今天我们利用Windows server 2019自带的Windows部署服务通过网络批量安装Win 10 一.Windows服务 1)WDS WDS(Windows Deployment Servi ...
- 经典!服务端 TCP 连接的 TIME_WAIT 过多问题的分析与解决
开源Linux 专注分享开源技术知识 本文给出一个 TIME_WAIT 状态的 TCP 连接过多的问题的解决思路,非常典型,大家可以好好看看,以后遇到这个问题就不会束手无策了. 问题描述 模拟高并发的 ...
- JuiceFS 在数据湖存储架构上的探索
大家好,我是来自 Juicedata 的高昌健,今天想跟大家分享的主题是<JuiceFS 在数据湖存储架构上的探索>,以下是今天分享的提纲: 首先我会简单的介绍一下大数据存储架构变迁以及它 ...
- 关于数据拓展及面试题讲解 Java
强类型语言 要求变量的使用严格符合规定,所有变量都必须先定义后才能使用 弱类型语言 Java 的数控类型分为两大类 基本类型(primitive type) 引用类型(reference type) ...
- 并发编程系列之Lock锁可重入性与公平性
一.相似之处:Lock锁 vs Synchronized 代码块 Lock锁是一种类似于synchronized 同步代码块的线程同步机制.从Java 5开始java.util.concurrent. ...
- apache tomcat 目录session应用信息漏洞
Tomcat 是一款开源的 Web 应用服务器软件.Tomcat 属于轻量级应用服务器,在中小型系统和并发访问用户不多的场合下被普遍使用,是开发和调试 JSP 程序的首选. 漏洞描述 apache T ...
- c++ web框架实现之静态反射实现
0 前言 最近在写web框架,框架写好后,需要根据网络发来的请求,选择用户定义的servlet来处理请求.一个问题就是,我们框架写好后,是不知道用户定义了哪些处理请求的类的,怎么办? 在java里有一 ...
- 【js奇妙说】如何跟非计算机从业者解释,为什么浮点数计算0.1+0.2不等于0.3?
壹 ❀ 引 0.1+0.2不等于0.3,即便你不知道原理,但也应该听闻过这个问题,包括博主本人也曾在面试中被问到过此问题.很遗憾,当时只知道一句精度丢失,但是什么原因造成的精度丢失却不太清楚.而我在查 ...
- 用HMS Core地图服务自定义地图样式,给你的应用制作专属个性化地图
不同行业的开发者对地图样式的展示需求差异很大.例如,物流类应用希望地图样式简洁一些,重点突出城市分布和快递路径:AR游戏类应用中的地图色彩需要和游戏UI适配,做的更酷炫一些:景区导览应用中的地图样式要 ...