文章目录:

一、JDK1.7之HashMap

二、JDK1.8之HashMap

三、Hashtable

JDK1.7之HashMap

1. 定义

HashMap实现了Map接口,继承AbstractMap。其中Map接口定义了键映射到值的规则,源码如下:

1   public class HashMap<K,V>
2 extends AbstractMap<K,V>
3 implements Map<K,V>, Cloneable, Serializable

HashMap是一种支持快速存取的数据结构。

2. 构造函数

HashMap提供了三个构造函数:

  • HashMap():构造一个具有默认初始容量 (16)默认加载因子 (0.75) 的空 HashMap。

  • HashMap(int initialCapacity):构造一个带指定初始容量和默认加载因子 (0.75) 的空 HashMap。

  • HashMap(int initialCapacity, float loadFactor):构造一个带指定初始容量和加载因子的空 HashMap。

在这里提到了两个参数:初始容量,加载因子。这两个参数是影响HashMap性能的重要参数,其中容量表示哈希表中桶的数量,初始容量是创建哈希表时的容量,加载因子是哈希表在其容量自动增加之前可以达到多满的一种尺度,它衡量的是一个散列表的空间的使用程度,负载因子越大表示散列表的装填程度越高,反之愈小。

对于使用链表法的散列表来说,查找一个元素的平均时间是O(1+a),因此如果负载因子越大,对空间的利用更充分,然而后果是查找效率的降低;如果负载因子太小,那么散列表的数据将过于稀疏,对空间造成严重浪费。系统默认负载因子为0.75,一般情况下我们是无需修改的。

3. HashMap的数据结构

桶:bucket,就是下图中的table数组的每一个成员(橘色),数组的每个位置就叫一个桶,bucket的下标即table数组的下标。Entry<K,V>构成了table数组的项。

HashMap是一个“链表散列”。第一列是table数组,后面是链表。

见源码:下面代码中第23行,表示每创建一个HashMap,就会有一个新的table数组,并且table数组的元素为Entry节点。

 1 public HashMap(int initialCapacity, float loadFactor) {
2 //初始容量不能<0
3 if (initialCapacity < 0)
4 throw new IllegalArgumentException("Illegal initial capacity: "
5 + initialCapacity);
6 //初始容量不能 > 最大容量值,HashMap的最大容量值为2^30
7 if (initialCapacity > MAXIMUM_CAPACITY)
8 initialCapacity = MAXIMUM_CAPACITY;
9 //负载因子不能 < 0
10 if (loadFactor <= 0 || Float.isNaN(loadFactor))
11 throw new IllegalArgumentException("Illegal load factor: "
12 + loadFactor);
13
14 // 计算出大于 initialCapacity 的最小的 2 的 n 次方值。
15 int capacity = 1;
16 while (capacity < initialCapacity)
17 capacity <<= 1;
18
19 this.loadFactor = loadFactor;
20 //设置HashMap的容量极限,当HashMap的容量达到该极限时就会进行扩容操作
21 threshold = (int) (capacity * loadFactor);
22 //初始化table数组
23 table = new Entry[capacity];
24 init();
25 }
 1 static class Entry<K,V> implements Map.Entry<K,V> {
2 final K key;
3 V value;
4 Entry<K,V> next;
5 final int hash;
6
7 /**
8 * Creates new entry.
9 */
10 Entry(int h, K k, V v, Entry<K,V> n) {
11 value = v;
12 next = n;
13 key = k;
14 hash = h;
15 }
16 .......
17 }

其中Entry为HashMap的内部类,它包含了键key、值value、下一个节点next,以及hash值,这是非常重要的,正是由于Entry才构成了table数组的项为链表。

HashMap添加节点的方法

 1     /**
2 * HashMap 添加节点
3 *
4 * @param hash 当前key生成的hashcode
5 * @param key 要添加到 HashMap 的key
6 * @param value 要添加到 HashMap 的value
7 * @param bucketIndex 桶,也就是这个要添加 HashMap 里的这个数据对应到数组的位置下标
8 */
9 void addEntry(int hash, K key, V value, int bucketIndex) {
10 //size:The number of key-value mappings contained in this map.
11 //threshold:The next size value at which to resize (capacity * load factor)
12 //数组扩容条件:1.已经存在的key-value mappings的个数大于等于阈值
13 // 2.底层数组的bucketIndex坐标处不等于null
14 if ((size >= threshold) && (null != table[bucketIndex])) {
15 resize(2 * table.length);//扩容之后,数组长度变了
16 hash = (null != key) ? hash(key) : 0;//为什么要再次计算一下hash值呢?
17 bucketIndex = indexFor(hash, table.length);//扩容之后,数组长度变了,在数组的下标跟数组长度有关,得重算。
18 }
19 createEntry(hash, key, value, bucketIndex);
20 }
21
22 /**
23 * 这地方就是链表出现的地方,有2种情况
24 * 1,原来的桶bucketIndex处是没值的,那么就不会有链表出来啦
25 * 2,原来这地方有值,那么根据Entry的构造函数,把新传进来的key-value mapping放在数组上,原来的就挂在这个新来的next属性上了
26 */
27 void createEntry(int hash, K key, V value, int bucketIndex) {
28 HashMap.Entry<K, V> e = table[bucketIndex];
29 table[bucketIndex] = new HashMap.Entry<>(hash, key, value, e);
30 size++;
31 }

4. HashMap的原理

看原理之前,先把第3个问题看看,了解他的数据结构及相关概念。

5. Hash冲突

就像上面的一个数组的位置上出现了一条链,即一个链表的出现,这就是所谓的hash冲突,即hash值相同。解决hash冲突,就是让链表的长度变短,或者干脆就是不产生链表,一个好的hash算法应该是让数据很好的散列到数组的各个位置,即一个位置存一个数据就是最好的散列,下面说的链地址法,说的就是在hashmap里面冲突的时候,一个节点可以存多个数据。

解决方法见JDK1.8中的3.2节

6. 存储实现:put(key,vlaue)

在写这一节前,我先列出几个问题,看大家都知道否?带着问题去阅读我相信会更深刻。

6.1. HashMap允许为null的原因

6.2. put中有迭代的原因

6.3. 为何数组长度是2^n呢,又为何可以是素数呢

6.4. 扩容问题

6.5. 为什么HashMap中元素的数量越来越多,查找速度越来越慢

6.6. 链表产生问题

6.7. 负载因子loadFactor是否可以大于1

6.8. 为什么要有HashMap的hash()方法,为什么不能直接使用KV中K原有的hash值

下面为大家一一讲解:

put操作的源码如下:

 1 public V put(K key, V value) {
2 //当key为null,调用putForNullKey方法,保存null与table第一个位置中,这是HashMap允许为null的原因
3 if (key == null)
4 return putForNullKey(value);
5 //计算key的hash值
6 int hash = hash(key.hashCode()); //------(1)
7 //计算key hash 值在 table 数组中的位置,即对length取模
8 int i = indexFor(hash, table.length); //------(2)
9 //从i处开始迭代 e,找到 key 保存的位置
10 for (Entry<K, V> e = table[i]; e != null; e = e.next) {
11 Object k;
12 //判断该条链上是否有hash值相同的(key相同)
13 //若存在相同,则直接覆盖value,返回旧value(其实还是已经更新的值)
14 if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
15 V oldValue = e.value; //旧值 = 新值
16 e.value = value;
17 e.recordAccess(this);
18 return oldValue; //返回旧值
19 }
20 }
21 //修改次数增加1
22 modCount++;
23 //将key、value添加至i位置处
24 addEntry(hash, key, value, i);
25 return null;
26 }

通过源码我们可以清晰看到HashMap保存数据的过程为:

  • 首先判断key是否为null:

    • 若为null,则直接调用putForNullKey方法;

    • 若不为空则先计算key的hash值,然后根据hash值搜索在table数组中的索引位置;

  • 如果table数组在该位置处有元素,则通过比较是否存在相同的key:

    • 若存在则覆盖原来key的value;

    • 否则将该元素保存在链头(最先保存的元素放在链尾);

  • 若table在该处没有元素,则直接保存。

这个过程看似比较简单,其实深有内幕。有如下几点:

  1. 先看迭代处。此处迭代原因就是为了防止存在相同的key值,若发现两个hash值(key)相同时,HashMap的处理方式是用新value替换旧value,这里并没有处理key,这就解释了HashMap中没有两个相同的key。

  1. 在看(1)、(2)处。这里是HashMap的精华所在。首先是hash方法,该方法为一个纯粹的数学计算,就是计算h的hash值。此处加入了高位运算(见下面代码第19行),避免了由于高位损失而带来的冲突,详见hashmap的hash计算。这也是为什么要有HashMap的hash()方法,难道不能直接使用KV中K原有的hash值的答案

  
1   //此处h是hashcode值,Jdk1.7及以前
2 static int hash(int h) {
3 h ^= (h >>> 20) ^ (h >>> 12);
4 return h ^ (h >>> 7) ^ (h >>> 4);
5 }

注:h >>> 16,表示无符号右移16位,高位补0,任何数跟0异或都是其本身,因此key的hash值高16位不变。

 1
2 //Jdk1.8
3 /**
4 * Computes key.hashCode() and spreads (XORs) higher bits of hash
5 * to lower. Because the table uses power-of-two masking, sets of
6 * hashes that vary only in bits above the current mask will
7 * always collide. (Among known examples are sets of Float keys
8 * holding consecutive whole numbers in small tables.) So we
9 * apply a transform that spreads the impact of higher bits
10 * downward. There is a tradeoff between speed, utility, and
11 * quality of bit-spreading. Because many common sets of hashes
12 * are already reasonably distributed (so don't benefit from
13 * spreading), and because we use trees to handle large sets of
14 * collisions in bins, we just XOR some shifted bits in the
15 * cheapest possible way to reduce systematic lossage, as well as
16 * to incorporate impact of the highest bits that would otherwise
17 * never be used in index calculations because of table bounds.
18 */
19 static final int hash(Object key) {
20 int h;
21 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);//高位参与运算
22 }

此处的hash方法和indexFor方法的参数的来源:

1
2 //计算key的hash值
3 int hash = hash(key.hashCode()); //------(1)
4 //计算key hash 值在 table 数组中的位置,即对length取模
5 int i = indexFor(hash, table.length);

我们知道对于HashMap的table而言,数据分布需要均匀(最好每项都只有一个元素,这样就可以直接找到),不能太紧也不能太松,太紧会导致查询速度慢,太松则浪费空间。计算hash值后,怎么才能保证table元素分布均与呢?我们会想到取模,但是由于取模的消耗较大,HashMap是这样处理的:调用indexFor方法

  
1   //此处h是hash值,hash值与上(length-1),就相当于是对length取模!!!!太高明了!!!
2 static int indexFor(int h, int length) {
3 return h & (length-1);
4 }

这句话除了上面的取模运算外还有一个非常重要的责任:均匀分布table数据和充分利用空间

这里我们假设length为16(是2^n形式)和15(不是2^n形式),h为5、6、7。结果如下图:

当length=15时,6和7的结果一样,这样表示他们在table存储的位置是相同的,也就是产生了碰撞冲突,6、7就会在一个位置形成链表,这样就会导致查询速度降低。诚然这里只分析三个数字不是很多,那么我们就看0-15。

从上面的图表中我们看到总共发生了8次碰撞,同时发现浪费的空间非常大,有1、3、5、7、9、11、13、15处没有记录,也就是没有存放数据。这是因为他们在与14进行&运算时,得到的结果最后一位永远都是0,即0001、0011、0101、0111、1001、1011、1101、1111位置处是不可能存储数据的,空间减少,进一步增加碰撞几率,这样就会导致查询速度慢。而当length = 16时,length – 1 = 15 即1111,那么进行低位&运算时,值总是与原来hash值相同,而进行高位运算时,其值等于其低位值。

因为2^n -1得到的二进制数的每个位上的值都为1,那么与全部为1的一一个数进行与操作,速度会大大提升。

所以:所以说当length = 2^n时,不同的hash值发生碰撞的概率比较小,这样就会使得数据在table数组中分布较均匀,查询速度也较快。

综上为什么数组长度是2^n呢?

  • 完成取模操作,但是&速度比%更快(h&(length-1));

  • 使得table数据均匀分布,非(2^n-1)总有某位是0,&操作后,该位会造成hash冲突;

  • 充分利用空间,尽量没有hash冲突,尽可能地均匀分布;

另外,需要说明的是:在HashMap中,哈希桶数组table的长度length大小必须为2的n次方(一定是合数),这是一种非常规的设计,常规的设计是把桶的大小设计为素数。相对来说素数导致冲突的概率要小于合数,具体证明可以参考为什么一般hashtable的桶数会取一个素数 这篇文章,简单来说就是采用2^n方法,高位可能会失效。比如说取2^3=8,H( 11100(二进制) ) = H( 28 ) = 4,H( 10100(二进制) ) = H( 20 )= 4,就出现了冲突。这就是为什么Hashtable初始化桶大小为11,就是桶大小设计为素数的应用(但是,Hashtable扩容后不能保证还是素数)。HashMap采用这种非常规设计,主要是为了在取模和扩容时做优化,同时为了减少冲突,HashMap定位哈希桶索引位置时,也加入了高位参与运算的过程。在这里我们暂不讨论HashMap和Hashtable的区别,后面会有详细介绍。

这里我们再来复习put的流程:当我们想一个HashMap中添加一对key-value时,系统首先会计算key的hash值,然后根据hash值确认在table中存储的位置。若该位置没有元素,则直接插入。否则迭代该处元素链表并依此比较其key的hash值。如果两个hash值相等且key值相等(e.hash == hash && ((k = e.key) == key || key.equals(k))),则用新的Entry的value覆盖原来节点的value。如果两个hash值相等但key值不等 ,则将该节点插入该链表的链头。具体的实现过程见addEntry方法,如下:

  
 1   //bucketIndex即table数组下标
2 void addEntry(int hash, K key, V value, int bucketIndex) {
3 //获取bucketIndex处的Entry
4 Entry<K, V> e = table[bucketIndex];
5 //将新创建的 Entry 放入 bucketIndex 索引处,并让新的 Entry 指向原来的 Entry
6 table[bucketIndex] = new Entry<K, V>(hash, key, value, e);
7 //若HashMap中元素的个数超过极限了,则容量扩大两倍
8 if (size++ >= threshold)
9 resize(2 * table.length);
10 }
 

在这里需要注意两个问题:

  • 链的产生:

这是一个非常优雅的设计。系统总是将新的Entry对象添加到桶处即bucketIndex处。如果bucketIndex处已经有了对象(也就是说table[bucketIndex]这个可以取到对象),那么新添加的Entry对象将指向原有的Entry对象(这个也好理解,再去看看Entry,这个内部类的一个属性next,就是链表里面的指针不是嘛),形成一条Entry链,但是若bucketIndex处没有Entry对象,也就是table[bucketIndex]==null,也就是e==null,那么新添加的Entry对象指向null,也就不会产生Entry链了。也就没有冲突啦,我上面又把这个代码补充到那个Entry代码的下面啦。我又贴到下面。

  • 扩容问题:

随着HashMap中元素的数量越来越多,发生碰撞的概率就越来越大,所产生的链表长度就会越来越长,这样势必会影响HashMap的速度(为啥呢?原来是直接找到数组的index就可以直接根据key取到值了,但是冲突严重,也就是说链表长,那就得循环链表了,时间就浪费在循环链表上了,也就慢了),为了保证HashMap的效率,系统必须要在某个临界点进行扩容处理。该临界点在当【HashMap中元素的数量==table数组长度*加载因子】。但是扩容是一个非常耗时的过程,因为它需要重新计算这些数据在新table数组中的位置并进行复制处理(为啥呢?原来,扩容后数组长度变了,而数组的下标跟数组长度有关(h&(length-1)),故得重算。)。所以如果我们已经预知HashMap中元素的个数,那么预设元素的个数能够有效的提高HashMap的性能。这个我也在上面链表产生的过程中写了详细的注释

另外就是,扩容的时候也是二倍扩容,也是因为这个道理,要满足数组长度是2^n,这就又回到上一个问题了。

 1
2 /**
3 * HashMap 添加节点
4 *
5 * @param hash 当前key生成的hashcode
6 * @param key 要添加到 HashMap 的key
7 * @param value 要添加到 HashMap 的value
8 * @param bucketIndex 桶,也就是这个要添加 HashMap 里的这个数据对应到数组的位置下标
9 */
10 void addEntry(int hash, K key, V value, int bucketIndex) {
11 //size:The number of key-value mappings contained in this map.
12 //threshold:The next size value at which to resize (capacity * load factor)
13 //数组扩容条件:1.已经存在的key-value mappings的个数大于等于阈值
14 // 2.底层数组的bucketIndex坐标处不等于null
15 if ((size >= threshold) && (null != table[bucketIndex])) {
16 resize(2 * table.length);//扩容之后,数组长度变了
17 hash = (null != key) ? hash(key) : 0;//为什么要再次计算一下hash值呢?
18 bucketIndex = indexFor(hash, table.length);//扩容之后,数组长度变了,在数组的下标跟数组长度有关,得重算。
19 }
20 createEntry(hash, key, value, bucketIndex);
21 }
22
23 /**
24 * 这地方就是链表出现的地方,有2种情况
25 * 1,原来的桶bucketIndex处是没值的,那么就不会有链表出来啦
26 * 2,原来这地方有值,那么根据Entry的构造函数,把新传进来的key-value mapping放在数组上,原来的就挂在这个新来的next属性上了
27 */
28 void createEntry(int hash, K key, V value, int bucketIndex) {
29 HashMap.Entry<K, V> e = table[bucketIndex];
30 table[bucketIndex] = new HashMap.Entry<>(hash, key, value, e);//Entry.next=e;
31 size++;
32 }
  • 负载因子loadFactor:

先看一下HashMap的几个字段:

1      int threshold;             // 所能容纳的key-value对极限,取值threshold = length * LoadFactor
2 final float loadFactor; // 负载因子
3 int modCount;
4 int size; //HashMap中实际存在的键值对数量
  

首先,Entry[] table的初始化长度length(默认值是16),Load factor为负载因子(默认值是0.75),threshold是HashMap所能容纳的最大数据量的Node(键值对)个数。threshold = length * LoadFactor。也就是说,在数组定义好长度之后,负载因子越大,所能容纳的键值对个数越多。

结合负载因子的定义公式可知,threshold就是在此Load factor和length(数组长度)对应下允许的最大元素数目,超过这个数目就重新resize(扩容),扩容后的HashMap容量是之前容量的两倍。默认的负载因子0.75是对空间和时间效率的一个平衡选择,建议大家不要修改。除非在时间和空间比较特殊的情况下,如果内存空间很多而又对时间效率要求很高,可以降低负载因子Load factor的值;相反,如果内存空间紧张而对时间效率要求不高,可以增加负载因子loadFactor的值,这个值可以大于1

size这个字段其实很好理解,就是HashMap中实际存在的键值对数量。注意和table的长度length、容纳最大键值对数量threshold的区别。

而modCount字段主要用来记录HashMap内部结构发生变化的次数,主要用于迭代的快速失败。强调一点,内部结构发生变化指的是结构发生变化,例如put新键值对,但是某个key对应的value值被覆盖不属于结构变化。

7. 读取实现:get(key)

相对于HashMap的存而言,取就显得比较简单了。通过key的hash值找到在table数组中的索引处的Entry,然后返回该key对应的value即可。

  
 1   public V get(Object key) {
2 // 若为null,调用getForNullKey方法返回相对应的value
3 if (key == null)
4 return getForNullKey();
5 // 根据该 key 的 hashCode 值计算它的 hash 码
6 int hash = hash(key.hashCode());
7 // 取出 table 数组中指定索引处的值
8 for (Entry<K, V> e = table[indexFor(hash, table.length)]; e != null; e = e.next) {
9 Object k;
10 //若搜索的key与查找的key相同,则返回相对应的value
11 if (e.hash == hash && ((k = e.key) == key || key.equals(k)))
12 return e.value;
13 }
14 return null;
15 }

在这里能够根据key快速的取到value除了和HashMap的数据结构密不可分外,还和Entry有莫大的关系,在前面就提到过,HashMap在存储过程中并没有将key,value分开来存储,而是当做一个整体key-value来处理的,这个整体就是Entry对象。同时value也只相当于key的附属而已。在存储的过程中,系统根据key的hashcode来决定Entry在table数组中的存储位置,在取的过程中同样根据key的hashcode取出相对应的Entry对象。

8. 多线程下的HashMap出现的问题

  1. 多线程put操作后,get操作导致死循环导致cpu100%的现象。主要是多线程同时put时,如果同时触发了rehash操作,会导致扩容后的HashMap中的链表中出现循环节点进而使得后面get的时候,会死循环。

  2. 多线程put操作,导致数据丢失,也是发生在个线程对hashmap 扩容时。

JDK1.8之HashMap

JDK1.8对HashMap底层的实现进行了优化,例如引入红黑树的数据结构和扩容的优化等;

1. 数据结构

从结构实现来讲,HashMap是数组+链表+红黑树(JDK1.8增加了红黑树部分)实现的,如下如所示。

在Jdk1.7中存在一个问题,即使负载因子和Hash算法设计的再合理,也免不了会出现拉链过长的情况,一旦出现拉链过长,则会严重影响HashMap的性能。于是,在JDK1.8版本中,对数据结构做了进一步的优化,引入了红黑树。而当链表长度太长(默认超过8)时,链表就转换为红黑树,利用红黑树快速增删改查的特点提高HashMap的性能,其中会用到红黑树的插入、删除、查找等算法。本文不再对红黑树展开讨论,想了解更多红黑树数据结构的工作原理可以参考初步了解红黑树

2. 功能与方法

2.1. 确定Hash桶数组索引位置

源码如下:

  
 1   方法一:
2 static final int hash(Object key) { //jdk1.8 & jdk1.7
3 int h;
4 // h = key.hashCode() 为第一步 取hashCode值
5 // h ^ (h >>> 16) 为第二步 高位参与运算
6 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
7 }
8 方法二:
9 static int indexFor(int h, int length) { //jdk1.7的源码,jdk1.8没有这个方法,但是实现原理一样的
10 return h & (length-1); //第三步 取模运算
11 }

这里的Hash算法本质上就是三步:取key的hashCode值、高位运算、取模运算。

在JDK1.8的实现中,优化了高位运算的算法,通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候,也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销。

举例说明,其中n为table的长度。

补充点知识:

bucket 单词意思:桶;

Entry 内部类;

“>> 右移,高位补符号位” 这里右移一位表示除2;

“>>> 无符号右移,高位补0”; 与>>类似“;

<< 左移” 左移一位表示乘2,二位就表示4,就是2的n次方;

^ 异或:相同为0,不同为1

2.2. put()方法(含红黑树)

JDK1.8HashMap的put方法执行过程可以通过下图来理解:

这里对每一步进行一下解释:

  • ①.判断键值对数组table[i]是否为空或为null,否则执行resize()进行扩容;

  • ②.根据键值key计算hash值得到插入的数组索引i,如果table[i]==null,直接新建节点添加,转向⑥,如果table[i]不为空,转向③;

  • ③.判断table[i]的首个元素是否和key一样,如果相同直接覆盖value,否则转向④,这里的相同指的是hashCode以及equals;

  • ④.判断table[i] 是否为treeNode,即table[i] 是否是红黑树,如果是红黑树,则直接在树中插入键值对,否则转向⑤;

  • ⑤.遍历table[i],判断链表长度是否大于8,大于8的话把链表转换为红黑树,在红黑树中执行插入操作,否则进行链表的插入操作;遍历过程中若发现key已经存在直接覆盖value即可;

  • ⑥.插入成功后,判断实际存在的键值对数量size是否超多了最大容量threshold,如果超过,进行扩容。

JDK1.8HashMap的put方法源码如下:

  
 1      public V put(K key, V value) {
2 //hash()方法在上面已经出现过了,就不贴了
3 return putVal(hash(key), key, value, false, true);
4 }
5
6 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
7 boolean evict) {
8 Node<K, V>[] tab;
9 Node<K, V> p;
10 int n, i;
11 // 步骤①:tab为空则创建
12 if ((tab = table) == null || (n = tab.length) == 0)
13 n = (tab = resize()).length;
14 // 步骤②:计算index,并对null做处理
15 if ((p = tab[i = (n - 1) & hash]) == null)
16 tab[i] = newNode(hash, key, value, null);
17 else {
18 Node<K, V> e;
19 K k;
20 // 步骤③:节点key存在,直接覆盖value
21 if (p.hash == hash &&
22 ((k = p.key) == key || (key != null && key.equals(k))))
23 e = p;
24 // 步骤④:判断该链为红黑树
25 else if (p instanceof TreeNode)
26 e = ((TreeNode<K, V>) p).putTreeVal(this, tab, hash, key, value);
27 // 步骤⑤:该链为链表
28 else {
29 for (int binCount = 0; ; ++binCount) {
30 if ((e = p.next) == null) {
31 p.next = newNode(hash, key, value, null);
32 //链表长度大于8转换为红黑树进行处理 TREEIFY_THRESHOLD = 8
33 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
34 treeifyBin(tab, hash);
35 break;
36 }
37 // key已经存在直接覆盖value
38 if (e.hash == hash &&
39 ((k = e.key) == key || (key != null && key.equals(k))))
40 break;
41 p = e;
42 }
43 }
44 if (e != null) { // existing mapping for key
45 V oldValue = e.value;
46 if (!onlyIfAbsent || oldValue == null)
47 e.value = value;
48 afterNodeAccess(e);
49 return oldValue;
50 }
51 }
52 ++modCount;
53 // 步骤⑥:超过最大容量 就扩容 threshold:单词解释--阈(yu)值,不念阀(fa)值!顺便学下语文咯。
54 if (++size > threshold)
55 resize();
56 afterNodeInsertion(evict);
57 return null;
58 }

2.3. 扩容机制

扩容(resize)就是重新计算容量,向HashMap对象里不停的添加元素,而HashMap对象内部的数组无法装载更多的元素时,对象就需要扩大数组的长度,以便能装入更多的元素。当然Java里的数组是无法自动扩容的,方法是使用一个新的数组代替已有的容量小的数组,就像我们用一个小桶装水,如果想装更多的水,就得换大水桶。

我们分析下resize的源码,鉴于JDK1.8融入了红黑树,较复杂,为了便于理解我们仍然使用JDK1.7的代码,好理解一些,本质上区别不大,具体区别后文再说。

由于过程比较复杂,在这里我只说结论吧,具体过程可以参考Java 8系列之重新认识HashMap

结论就是:由于我们使用的是2次幂的扩展(指长度扩为原来2倍),经过rehash之后,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置 ,即就是下图中红圈圈内+16的解释。oldCap表示原来的容量大小。

如图示:

【与Jdk1.7的区别】

因此,我们在扩充HashMap的时候,不需要像JDK1.7的实现那样重新计算hash,只需要看看原来的hash值新增的那个bit是1还是0就好了(对应上图中红色字体0/1),是0的话索引没变,是1的话索引变成“原索引+oldCap”,可以看看下图为16扩充为32的resize示意图:

解释一下这个图:

这个图就是扩容前后的图的对比,以下标值15的链表为例,展现数组扩容之后,旧链表是如何在新数组上分配位置的。

扩容之后,上面的那个与运算(这个没体现出来,请参考原博文),最高位多个1,然后对应的hashcode值,会被多取一位。这一位要么是0,要么是1。0的话,还是在数组下标的老位置15,要是1的话,就在原来下标的位置上+个扩容的size,即15+16=31。

这个设计确实非常的巧妙,既省去了重新计算hash值的时间,而且同时,由于新增的1bit是0还是1可以认为是随机的,因此resize的过程,均匀的把之前的冲突的节点分散到新的bucket了。这一块就是JDK1.8新增的优化点。有一点注意区别,JDK1.7中rehash的时候,旧链表迁移新链表的时候,如果在新表的数组索引位置相同,则链表元素会倒置,但是从上图可以看出,JDK1.8不会倒置。

2.4. 线程安全性

HashMap是线程不安全的,在多线程使用场景中,应该尽量避免使用线程不安全的HashMap,而使用线程安全的ConcurrentHashMap

同1.7中描述

小结:

(1) 扩容是一个特别耗性能的操作,所以当程序员在使用HashMap的时候,估算map的大小,初始化的时候给一个大致的数值,避免map进行频繁的扩容。

(2) 负载因子是可以修改的,也可以大于1,但是建议不要轻易修改,除非情况非常特殊。

(3) HashMap是线程不安全的,不要在并发的环境中同时操作HashMap,建议使用ConcurrentHashMap。

(4) JDK1.8引入红黑树大程度优化了HashMap的性能。

(5) 还没升级JDK1.8的,现在开始升级吧。HashMap的性能提升仅仅是JDK1.8的冰山一角。

参考:

  1. HashMap和HashTable底层原理以及常见面试题

  2. jdk1.7_HashMap的实现原理

  3. jdk1.8_重看HashMap

3. 其他若干问题

3.1. 为什么用数组+链表?

数组是用来确定桶的位置,利用元素的key的hash值对数组长度取模得到.链表是用来解决hash冲突问题,当出现hash值一样的情形,就在数组上的对应位置形成一条链表。

这里的hash值并不是指hashcode,在Java1.8中是将hashcode高低十六位异或过的。

3.2. 解决Hash冲突的方法?

主要的有四种:(1)开放定址法(2)链地址法(3)再哈希法(4)公共溢出区域法

详见:

  1. 专门介绍拉链法

  2. java 解决Hash(散列)冲突的四种方法-

  3. 优缺点

3.3. 用LinkedList代替数组行吗?行的话为什么不用?

源码中:Entry就是一个链表节点。

  Entry[] table = new Entry[capacity];

那我用下面这样表示:

 List<Entry> table = new LinkedList<Entry>(); 

是否可行?

答案是肯定的,必须是可以的。既然是可以的,为什么HashMap不用LinkedList,而选用数组?

因为用数组效率最高!因为,在HashMap中,定位桶的位置是利用元素的key的hash值对数组长度取模得到。此时,我们已得到桶的位置。显然数组的查找效率比LinkedList高。

那ArrayList,底层也是数组,查找也快啊,为啥不用ArrayList?

因为采用基本数组结构,扩容机制可以自己定义,HashMap中数组扩容刚好是2的次幂,在做取模运算的效率高。而ArrayList的扩容机制是1.5倍扩容

3.4.HashMap在什么条件下扩容?

如果bucket满了(超过load factor*current capacity),就要resize;load factor为0.75,为了最大程度避免哈希冲突;current capacity为当前数组大小。

3.5. 为什么扩容是2的次幂?

HashMap为了存取高效,要尽量较少碰撞,就是要尽量把数据分配均匀,每个链表长度大致相同,这个实现就在把数据存到哪个链表中的算法;这个算法实际就是取模,hash%length。但是,大家都知道这种运算不如位移运算快。因此,源码中做了优化hash&(length-1)。也就是说hash%length==hash&(length-1)那为什么是2的n次方呢?因为2的n次方实际就是1后面n个0,2的n次方-1,实际就是n个1。例如长度为8时候,3&(8-1)=3 2&(8-1)=2 ,不同位置上,不碰撞。而长度为5的时候,3&(5-1)=0 2&(5-1)=0,都在0上,出现碰撞了。所以,保证容积是2的n次方,是为了保证在做(length-1)的时候,每一位都能&1 ,也就是和1111……1111111进行与运算。

3.6. 为什么为什么要先高16位异或低16位再取模运算?

上面已经介绍过了,Jdk1.8中源码:

1   static final int hash(Object key) {   //jdk1.8 & jdk1.7
2 int h;
3 // h = key.hashCode() 为第一步 取hashCode值
4 // h ^ (h >>> 16) 为第二步 高位参与运算
5 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
6 }

HashMap这么做,只是为了降低hash冲突的几率

3.7. 讲讲hashmap的get/put的过程?

这问题问的的好歹毒啊。

  • 知道hashmap中put元素的过程是什么样么?

对key的hashCode()做hash运算,计算index;如果没碰撞直接放到bucket里;如果碰撞了,以链表的形式存在buckets后;如果碰撞导致链表过长(大于等于TREEIFY_THRESHOLD),就把链表转换成红黑树(JDK1.8中的改动);如果节点已经存在就替换old value(保证key的唯一性)如果bucket满了(超过load factor*current capacity),就要resize。

  • 知道hashmap中get元素的过程是什么样么?

对key的hashCode()做hash运算,计算index;如果在bucket里的第一个节点里直接命中,则直接返回;如果有冲突,则通过key.equals(k)去查找对应的Entry;

需要注意的是:

若为树,则在树中通过key.equals(k)查找,O(logn);

若为链表,则在链表中通过key.equals(k)查找,O(n)。

3.8. 你还知道哪些hash算法?

先说一下hash算法干嘛的,Hash函数是指把一个大范围映射到一个小范围。把大范围映射到一个小范围的目的往往是为了节省空间,使得数据容易保存。即输入域无穷,输出域有限,这也是hash冲突的根本原因。

比较出名的有MurmurHash、MD4、MD5等等。

详情见哈希函数&MD5原理(比较冗长详细)hash算法原理之md5过程(精简)

3.9. 说说String中hashcode的实现?(此题很多大厂问过)

源码部分字段和hashCode()方法如下:

 1  /** The value is used for character storage. */
2 private final char value[];
3 ​
4 /** Cache the hash code for the string */
5 private int hash; // Default to 0
6 ​
7 /**
8 * Returns a hash code for this string. The hash code for a
9 * {@code String} object is computed as
10 * <blockquote><pre>
11 * s[0]*31^(n-1) + s[1]*31^(n-2) + ... + s[n-1]
12 * </pre></blockquote>
13 * using {@code int} arithmetic, where {@code s[i]} is the
14 * <i>i</i>th character of the string, {@code n} is the length of
15 * the string, and {@code ^} indicates exponentiation.
16 * (The hash value of the empty string is zero.)
17 *
18 * @return a hash code value for this object.
19 */
20 public int hashCode() {
21 int h = hash;
22 if (h == 0 && value.length > 0) {
23 char val[] = value;
24 ​
25 for (int i = 0; i < value.length; i++) {
26 h = 31 * h + val[i];
27 }
28 hash = h;
29 }
30 return h;
31 }

String类中的hashCode计算方法还是比较简单的,就是:以31为权,每一位为字符的ASCII值进行运算,用自然溢出来等效取模。

哈希计算公式可以计为 s[0]*31^(n-1) + s[1]*31^(n-2) + … + s[n-1] 

那为什么以31为质数呢?

主要是因为31是一个奇质数,所以 31*i=32*i-i=(i<<5)-i ,这种位移与减法结合的计算相比一般的运算快很多。

3.10. 为什么hashmap的在链表元素数量超过8时改为红黑树?

  • 知道jdk1.8中hashmap改了啥么?

  • 为什么在解决hash冲突的时候,不直接用红黑树?而选择先用链表,再转红黑树?

  • 我不用红黑树,用二叉查找树可以么?

  • 那为什么阀值是8呢?

  • 当链表转为红黑树后,什么时候退化为链表?

3.10.1. 知道jdk1.8中hashmap改了啥么?

  • 数组+链表的结构改为数组+链表+红黑树

  • 优化了高位运算的hash算法:h^(h>>>16)

  • 扩容后,元素要么是在原位置,要么是在原位置再移动2次幂的位置,且链表顺序不变。这一条是重点,因为最后一条的变动,hashmap在1.8中,不会在出现死循环问题

3.10.2. 为什么在解决hash冲突的时候,不直接用红黑树?而选择先用链表,再转红黑树?

因为红黑树需要进行左旋,右旋,变色这些操作来保持平衡,而单链表不需要。当元素小于8个当时候,此时做查询操作,链表结构已经能保证查询性能。当元素大于8个的时候,此时需要红黑树来加快查询速度,但是新增节点的效率变慢了。

因此,如果一开始就用红黑树结构,元素太少,新增效率又比较慢,无疑这是浪费性能的。

3.10.3. 我不用红黑树,用二叉查找树可以么? 为什么有了二叉树、平衡二叉树还需要红黑树?

可以。但是二叉查找树在特殊情况下会变成一条线性结构(这就跟原来使用链表结构一样了,造成很深的问题),遍历查找会非常慢。

此处还可以问你二叉树、平衡二叉树以及红黑树之间的区别与联系。基本定义我就不说了,在这里直接上区别与联系,其实这三者是循循递进的关系,后一个的出现总是以解决前一个的缺点应运而生的。

简单滴说:

  • 二叉树的缺点:出现极端情况:退化成链表,复杂度由O(logN)变成O(N),故,为了改进,出现了平衡二叉树;

  • 平衡二叉树的缺点:虽然平衡树解决了二叉查找树退化为近似链表的缺点,能够把查找时间控制在 O(logn),不过却不是最佳的,因为平衡树要求每个节点的左子树和右子树的高度差至多等于1,这个要求实在是太严了,导致每次进行插入/删除节点的时候,几乎都会破坏平衡树的第二个规则,进而我们都需要通过左旋右旋来进行调整,使之再次成为一颗符合要求的平衡树。

  • 显然,如果在那种插入、删除很频繁的场景中,平衡树需要频繁着进行调整,这会使平衡树的性能大打折扣,为了解决这个问题,于是有了红黑树,由于红黑树的各种特点(自己查找),使得它能够在最坏情况下,也能在 O(logn) 的时间复杂度查找到某个节点。

    与平衡树不同的是,红黑树在插入、删除等操作,不会像平衡树那样,频繁着破坏红黑树的规则,所以不需要频繁着调整,这也是我们为什么大多数情况下使用红黑树的原因。

总结:单单在查找方面的效率的话,平衡树比红黑树快,也可以说,红黑树是一种不大严格的平衡树。

所以,最后的答案是,平衡树是为了解决二叉查找树退化为链表的情况,而红黑树是为了解决平衡树在插入、删除等操作需要频繁调整的情况。

参考:为什么有了二叉树、平衡二叉树还需要红黑树?

3.10.4. 那为什么阀值是8呢?

不知道,等jdk作者来回答。这道题,网上能找到的答案都是扯淡。

jdk作者选择8,一定经过了严格的运算,觉得在长度为8的时候,与其保证链表结构的查找开销,不如转换为红黑树,改为维持其平衡开销。

3.10.5. 当链表转为红黑树后,什么时候退化为链表? 为什么是6而不是7?

为6的时候退转为链表。中间有个差值7可以防止链表和树之间频繁的转换,作为缓冲。假设一下,如果设计成链表个数超过8则链表转换成树结构,链表个数小于8则树结构转换成链表,如果一个HashMap不停的插入、删除元素,链表个数在8左右徘徊,就会频繁的发生树转链表、链表转树,效率会很低。

3.11. HashMap的并发问题?

  • HashMap在并发编程环境下有什么问题啊?

  • 在jdk1.8中还有这些问题么?

  • 你一般怎么解决这些问题的?

3.11.1. Jdk1.7中HashMap在并发编程环境下有什么问题啊?在jdk1.8中还有这些问题么?如何解决?

(1)、多线程扩容,引起的死循环问题

(2)、多线程put的时候可能导致元素丢失

(3)、put非null元素后get出来的却是null

在jdk1.8中还有这些问题么?在jdk1.8中,死循环问题已经通过在原位置再移动2次幂的位置 来解决。其他两个问题还是存在。

解决方法:使用ConcurrentHashmap,Hashtable等线程安全等集合类

3.12. key可以为null嘛?你一般用什么作为HashMap的key?

  • 键可以为Null值么?

  • 你一般用什么作为HashMap的key?

  • 我用可变类当HashMap的key有什么问题?

  • 如果让你实现一个自定义的class作为HashMap的key该如何实现?

key为null的时候,hash算法最后的值以0来计算,也就是放在数组的第一个位置

Jdk1.8源码如下:

1   static final int hash(Object key) {
2 int h;
3 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);//高位参与运算
4 }

3.12.1. 我用可变类当HashMap的key有什么问题?

一般用Integer、String这种不可变类当HashMap当key,而且String最为常用

  • (1)、因为字符串是不可变的,所以在它创建的时候hashcode就被缓存了,不需要重新计算。这就使得字符串很适合作为Map中的键,字符串的处理速度要快过其它的键对象。这就是HashMap中的键往往都使用字符串。

  • (2)、因为获取对象的时候要用到equals()和hashCode()方法,那么键对象正确的重写这两个方法是非常重要的,这些类已经很规范的覆写了hashCode()以及equals()方法。

当使用可变类时,hashcode可能发生改变,导致put进去的值,无法get出,如下所示:

1       HashMap<List<String>, Object> changeMap = new HashMap<>();
2 List<String> list = new ArrayList<>();
3 list.add("hello");
4 Object objectValue = new Object();
5 changeMap.put(list, objectValue);
6 System.out.println(changeMap.get(list));
7 list.add("hello world");//hashcode发生了改变
8 System.out.println(changeMap.get(list));

输出如下:

1  java.lang.Object@74a14482
2 null

3.12.2. 如果让你实现一个自定义的class作为HashMap的key该如何实现?

此题考察两个知识点

  • 重写hashcode和equals方法注意什么?

  • 如何设计一个不变类;

针对问题一,记住下面四个原则即可

  (1)两个对象相等,hashcode一定相等;

  (2)两个对象不等,hashcode不一定不等;

  (3)hashcode相等,两个对象不一定相等;

  (4)hashcode不等,两个对象一定不等;

针对问题二,记住如何写一个不可变类

  (1)类添加final修饰符,保证类不被继承。如果类可以被继承会破坏类的不可变性机制,只要继承类覆盖父类的方法并且继承类可以改变成员变量值,那么一旦子类以父类的形式出现时,不能保证当前类是否可变;

  (2)保证所有成员变量必须私有,并且加上final修饰通过这种方式保证成员变量不可改变。但只做到这一步还不够,因为如果是对象成员变量有可能再外部改变其值。所以第4点弥补这个不足;

  (3)不提供改变成员变量的方法,包括setter避免通过其他接口改变成员变量的值,破坏不可变特性;

  (4)通过构造器初始化所有成员,进行深拷贝(deep copy)如果构造器传入的对象直接赋值给成员变量,还是可以通过对传入对象的修改进而导致改变内部变量的值。例如:

1   public final class ImmutableDemo {
2 private final int[] myArray;
3 public ImmutableDemo(int[] array) {
4 this.myArray = array; // wrong
5 }
6 }

这种方式不能保证不可变性,myArray和array指向同一块内存地址,用户可以在ImmutableDemo之外通过修改array对象的值来改变myArray内部的值。

为了保证内部的值不被修改,可以采用深度copy来创建一个新内存保存传入的值。正确做法:

1   public final class MyImmutableDemo {
2 private final int[] myArray;
3 public MyImmutableDemo(int[] array) {
4 this.myArray = array.clone();
5 }
6 }

(5)在getter方法中,不要直接返回对象本身,而是克隆对象,并返回对象的拷贝这种做法也是防止对象外泄,防止通过getter获得内部可变成员对象后对成员变量直接操作,导致成员变量发生改变。

参考:面试必考的HashMap

Hashtable

1. Hashtable原理

与HashMap基本一致;

2. HashMap与Hashtable的五点区别

    • Hashtable是线程安全的,方法是synchronized的,适合在多线程下使用,效率稍低;

    • HashMap是线程不安全的,方法不是synchronized的,适合在单线程下使用,效率稍高;

Hashtable效率低的原因?

在线程竞争激烈的情况下HashTable的效率非常低下。因为当一个线程访间HashTable的同步方法时,访问其他同步方法的线程就可能会进入阻塞或者轮训状态。如线程1使用put进行添加元素,线程2不但不能使用put方法添加元素,并且也不能使用get方法来获取元素,所以竞争越激烈改率越低。

    • HashMap的key和value都可以为null值;

    • Hashtable 的key和value都不允许为 Null值;

    • HashMap中数组的默认大小是16,而且一定是2的倍数,扩容后的数組长度是之前数组长度的2倍。

  • HashTable中数组默认大小是11,扩容后的数组长度是之前数组长度的2倍+1。

  1. Hash值的使用不同:

    • HashMap重新计算了Hash值,而且用&代替%求模;

    • Hashtable直接使用对象的hashcode;

  2. 判断是否含某个键的方式

    • HashMap中只能用containskey()来判断是否含键,不能用get()方法:因为HashMap中可以存放null(只有一个键为null,肯有一个或多个value为null)。当get()方法返回null值时,既可以表示HashMap中没有该键,也可以表示该键所对应的值为null。因此,在HashMap中不能用get()方法来判断HashMap中是否存在某个键。

    • Hashtable的键值都不能为null,所以可以用get()方 法来判断是否含有某个键。

  

Over...

【参考】

向文章中列出的链接致谢!

    

HashMap三百问的更多相关文章

  1. SEO百问

    SEO 的工作过程中,大家都会碰到很多这样或那样的问题,做 SEO 随着时间慢慢变长之后,知识会慢慢地积累,之前的问题也会慢慢的都被解答.这里是码动世界为大家整理的有关 SEO 百问百答. 1. 百度 ...

  2. k3 Bos开发百问百答

              K/3 BOS开发百问百答   (版本:V1.1)           K3产品市场部       目录 一.基础资料篇__ 1 [摘要]bos基础资料的显示问题_ 1 [摘要]单 ...

  3. 第三百三十节,web爬虫讲解2—urllib库爬虫—实战爬取搜狗微信公众号—抓包软件安装Fiddler4讲解

    第三百三十节,web爬虫讲解2—urllib库爬虫—实战爬取搜狗微信公众号—抓包软件安装Fiddler4讲解 封装模块 #!/usr/bin/env python # -*- coding: utf- ...

  4. Java千百问_05面向对象(006)_is-a,has-a,like-a是什么

    点击进入_很多其它_Java千百问 1.is-a,has-a,like-a是什么 在面向对象设计的领域里,有若干种设计思路,主要有例如以下三种: is-a.has-a.like-a java中在类.接 ...

  5. SQLServer DBA 三十问(加强版)

    距离最初发布SQLServer DBA 三十问 已有一年多了,大家对其中的某些问题讨论比较激烈,要回答出来这些问题需要比较扎实的SQLServer 基础和一定的实际操作经验,如果你试着去回答其中的问题 ...

  6. 第三百五十六天 how can I 坚持

    一年了,三百五十六天.写个算法算下对不对. 今天突然想买辆自行车了.云马智行车,还是捷安特,好想买一辆. 网好卡.貌似少记了一天呢,357了.好快. 睡觉了,还没锻炼呢,太晚了. 1458748800 ...

  7. 第三百五十五天 how can I 坚持

    快一年了,三百五十五天了,等写个程序算算时间,看看日期和天数能不能对的上,哈哈. 计划还是未制定,天气预报还是没有写完,立马行动,发完这个博客,立马行动. 计划:设计模式1个月,三大框架3个月,计算机 ...

  8. Android应用之《宋词三百首》(二)

    接上回,上回我们讲到MainActivity里面将所有的宋词标题和作者显示到界面的ListView中去,我们接下来的工作是通过点击ListView的Item跳转到ContentActivity里面去显 ...

  9. 【HDOJ】前三百留念

    4个月不到的时间,终于刷到了HDOJ前三百.肯定还不够,好多基本的算法还不了解.还得继续学习.以此留念,假期目标是前一百.

随机推荐

  1. 集成多种协议、用于 USB-A 和 TYPE-C 双端口输出的快充协议芯片IP2726

    1. 特性  支持 1A1C  支持 USB-A 和 TYPE-C 双端口输出  单口输出支持全部快充协议  双口同时插入时降压到 5V  快充规格  集成 QC2.0/QC3.0/QC4/QC4+输 ...

  2. Centos7 添加用户及设置权限

    一.添加用户 1.登录root 用户 [gau@localhost /]$ su Password: # 输入密码 [root@localhost /]# 2.添加用户 [root@localhost ...

  3. 小程序map学习:使用map获取当前位置并显示出来

    在小程序开发的过程中,我碰到过一个做map的需求,在我开发的时候我碰到了一些问题,这里总结出来,给大家一些解决方法. 简易小程序dome下载 代码片段分享: js部分: var amapFile = ...

  4. python_mmdt:从0到1--实现简单恶意代码分类器(二)

    概述 上篇文章python_mmdt:一种基于敏感哈希生成特征向量的python库(一)我们介绍了一种叫mmdt_hash(敏感哈希)生成方法,并对其中的概念做了基本介绍.本篇,我们重点谈谈mmdt_ ...

  5. 设置一个两边固定中间自适应的css

    1.两边浮动,中间自动宽度 给左右两个盒子设置左右浮动,中间的盒子不设置宽度,左右两边边距为左右盒子的宽度,中间盒子的位置必须写在右盒子下面,不然会把右盒子挤下去 如:   <div class ...

  6. 淘宝APP消息推送模型

    为什么到了2020年,"统一推送联盟"依旧无法起显著作用? - 知乎 https://www.zhihu.com/question/370632447 https://mp.wei ...

  7. scala/java等其他语言从CSV文件中读取数据,使用逗号','分割可能会出现的问题

    众所周知,csv文件默认以逗号","分割数据,那么在scala命令行里查询的数据: 可以看见,字段里就包含了逗号",",那接下来切割的时候,这本应该作为一个整体 ...

  8. 通过spring statemmachine 自定义构建属于自己的状态机(两种方式)

    spring 的stateMachine 相对于当前的版本,还是比较新颖的,但是对于合适的业务场景,使用起来还是十分的方便的.但是对于官网提供的文档,讲解的是十分的精简,要想更深入的了解其内部架构,只 ...

  9. python输出乘法口诀

    for i in range(1,10): for j in range(1,i+1): print (" ".join(["%d*%d=%d" %(j,i,i ...

  10. java正则表示判断。是否以某个关键字结尾的

    String defaultPageSqlId = ".*ByPaging$"; System.out.println("dsdsdsdByPaging".ma ...