概述
HashMap在底层数据结构上采用了数组+链表+红黑树,通过散列映射来存储键值对数据因为在查询上使用散列码(通过键生成一个数字作为数组下标,这个数字就是hash code)所以在查询上的访问速度比较快,HashMap最多允许一对键值对的Key为Null,允许多对键值对的value为Null。它是非线程安全的。在排序上面是无序的。
HashMap的初始容量为16,填充因子默认是0.75。
HashMap扩容时是当前容量翻倍即:capacity*2,capacity为当前容量。
HashMap的扩容操作是一项很耗时的任务,所以如果能估算Map的容量,最好给它一个默认初始值,避免进行多次扩容。HashMap的线程是不安全的,多线程环境中推荐是ConcurrentHashMap。

HashMap的实现原理

简单说下HashMap的实现原理:

首先有一个每个元素都是链表(可能表述不准确)的数组,当添加一个元素(key-value)时,就首先计算元素key的hash值,以此确定插入数组中的位置,但是可能存在同一hash值的元素已经被放在数组同一位置了,这时就添加到同一hash值的元素的后面,他们在数组的同一位置,但是形成了链表,同一各链表上的Hash值是相同的,所以说数组存放的是链表。而当链表长度太长时,链表就转换为红黑树,这样大大提高了查找的效率。

当链表数组的容量超过初始容量的0.75时,再散列将链表数组扩大2倍,把原链表数组的搬移到新的数组中

即HashMap的原理图是:

一,JDK1.8中的涉及到的数据结构

1,位桶数组

  1. transient Node<k,v>[] table;//存储(位桶)的数组</k,v>

2,数组元素Node<K,V>实现了Entry接口

 1 //Node是单向链表,它实现了Map.Entry接口
2 static class Node<k,v> implements Map.Entry<k,v> {
3 final int hash;
4 final K key;
5 V value;
6 Node<k,v> next;
7 //构造函数Hash值 键 值 下一个节点
8 Node(int hash, K key, V value, Node<k,v> next) {
9 this.hash = hash;
10 this.key = key;
11 this.value = value;
12 this.next = next;
13 }
14
15 public final K getKey() { return key; }
16 public final V getValue() { return value; }
17 public final String toString() { return key + = + value; }
18
19 public final int hashCode() {
20 return Objects.hashCode(key) ^ Objects.hashCode(value);
21 }
22
23 public final V setValue(V newValue) {
24 V oldValue = value;
25 value = newValue;
26 return oldValue;
27 }
28 //判断两个node是否相等,若key和value都相等,返回true。可以与自身比较为true
29 public final boolean equals(Object o) {
30 if (o == this)
31 return true;
32 if (o instanceof Map.Entry) {
33 Map.Entry<!--?,?--> e = (Map.Entry<!--?,?-->)o;
34 if (Objects.equals(key, e.getKey()) &&
35 Objects.equals(value, e.getValue()))
36 return true;
37 }
38 return false;
39 }

3,红黑树

 1 //红黑树
2 static final class TreeNode<k,v> extends LinkedHashMap.Entry<k,v> {
3 TreeNode<k,v> parent; // 父节点
4 TreeNode<k,v> left; //左子树
5 TreeNode<k,v> right;//右子树
6 TreeNode<k,v> prev; // needed to unlink next upon deletion
7 boolean red; //颜色属性
8 TreeNode(int hash, K key, V val, Node<k,v> next) {
9 super(hash, key, val, next);
10 }
11
12 //返回当前节点的根节点
13 final TreeNode<k,v> root() {
14 for (TreeNode<k,v> r = this, p;;) {
15 if ((p = r.parent) == null)
16 return r;
17 r = p;
18 }
19 }

二,源码中的数据域

加载因子(默认0.75):为什么需要使用加载因子,为什么需要扩容呢因为如果填充比很大,说明利用的空间很多,如果一直不进行扩容的话,链表就会越来越长,这样查找的效率很低,因为链表的长度很大(当然最新版本使用了红黑树后会改进很多),扩容之后,将原来链表数组的每一个链表分成奇偶两个子链表分别挂在新链表数组的散列位置,这样就减少了每个链表的长度,增加查找效率

HashMap本来是以空间换时间,所以填充比没必要太大。但是填充比太小又会导致空间浪费。如果关注内存,填充比可以稍大,如果主要关注查找性能,填充比可以稍小。

 1 public class HashMap<k,v> extends AbstractMap<k,v> implements Map<k,v>, Cloneable, Serializable {
2 private static final long serialVersionUID = 362498820763181265L;
3 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
4 static final int MAXIMUM_CAPACITY = 1 << 30;//最大容量
5 static final float DEFAULT_LOAD_FACTOR = 0.75f;//填充比
6 //当add一个元素到某个位桶,其链表长度达到8时将链表转换为红黑树
7 static final int TREEIFY_THRESHOLD = 8;
8 static final int UNTREEIFY_THRESHOLD = 6;
9 static final int MIN_TREEIFY_CAPACITY = 64;
10 transient Node<k,v>[] table;//存储元素的数组
11 transient Set<map.entry<k,v>> entrySet;
12 transient int size;//存放元素的个数
13 transient int modCount;//被修改的次数fast-fail机制
14 int threshold;//临界值 当实际大小(容量*填充比)超过临界值时,会进行扩容
15 final float loadFactor;//填充比(......后面略)

三,HashMap的构造函数

HashMap的构造方法有4种,主要涉及到的参数有,指定初始容量,指定填充比和用来初始化的Map

 1 //构造函数1
2 public HashMap(int initialCapacity, float loadFactor) {
3 //指定的初始容量非负
4 if (initialCapacity < 0)
5 throw new IllegalArgumentException(Illegal initial capacity: +
6 initialCapacity);
7 //如果指定的初始容量大于最大容量,置为最大容量
8 if (initialCapacity > MAXIMUM_CAPACITY)
9 initialCapacity = MAXIMUM_CAPACITY;
10 //填充比为正
11 if (loadFactor <= 0 || Float.isNaN(loadFactor))
12 throw new IllegalArgumentException(Illegal load factor: +
13 loadFactor);
14 this.loadFactor = loadFactor;
15 this.threshold = tableSizeFor(initialCapacity);//新的扩容临界值
16 }
17
18 //构造函数2
19 public HashMap(int initialCapacity) {
20 this(initialCapacity, DEFAULT_LOAD_FACTOR);
21 }
22
23 //构造函数3
24 public HashMap() {
25 this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
26 }
27
28 //构造函数4用m的元素初始化散列映射
29 public HashMap(Map<!--? extends K, ? extends V--> m) {
30 this.loadFactor = DEFAULT_LOAD_FACTOR;
31 putMapEntries(m, false);
32 }

四,HashMap的存取机制

1,HashMap如何getValue值,看源码

 1 public V get(Object key) {
2 Node<K,V> e;
3 return (e = getNode(hash(key), key)) == null ? null : e.value;
4 }
5 /**
6 * Implements Map.get and related methods
7 *
8 * @param hash hash for key
9 * @param key the key
10 * @return the node, or null if none
11 */
12 final Node<K,V> getNode(int hash, Object key) {
13 Node<K,V>[] tab;//Entry对象数组
14 Node<K,V> first,e; //在tab数组中经过散列的第一个位置
15 int n;
16 K k;
17 /*找到插入的第一个Node,方法是hash值和n-1相与,tab[(n - 1) & hash]*/
18 //也就是说在一条链上的hash值相同的
19 if ((tab = table) != null && (n = tab.length) > 0 &&(first = tab[(n - 1) & hash]) != null) {
20 /*检查第一个Node是不是要找的Node*/
21 if (first.hash == hash && // always check first node
22 ((k = first.key) == key || (key != null && key.equals(k))))//判断条件是hash值要相同,key值要相同
23 return first;
24 /*检查first后面的node*/
25 if ((e = first.next) != null) {
26 if (first instanceof TreeNode)
27 return ((TreeNode<K,V>)first).getTreeNode(hash, key);
28 /*遍历后面的链表,找到key值和hash值都相同的Node*/
29 do {
30 if (e.hash == hash &&
31 ((k = e.key) == key || (key != null && key.equals(k))))
32 return e;
33 } while ((e = e.next) != null);
34 }
35 }
36 return null;
37 }

get(key)方法时获取key的hash值,计算hash&(n-1)得到在链表数组中的位置first=tab[hash&(n-1)],先判断first的key是否与参数key相等,不等就遍历后面的链表找到相同的key值返回对应的Value值即可

2,HashMap如何put(key,value);看源码

 1 public V put(K key, V value) {
2 return putVal(hash(key), key, value, false, true);
3 }
4 /**
5 * Implements Map.put and related methods
6 *
7 * @param hash hash for key
8 * @param key the key
9 * @param value the value to put
10 * @param onlyIfAbsent if true, don't change existing value
11 * @param evict if false, the table is in creation mode.
12 * @return previous value, or null if none
13 */
14 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
15 boolean evict) {
16 Node<K,V>[] tab;
17 Node<K,V> p;
18 int n, i;
19 if ((tab = table) == null || (n = tab.length) == 0)
20 n = (tab = resize()).length;
21 /*如果table的在(n-1)&hash的值是空,就新建一个节点插入在该位置*/
22 if ((p = tab[i = (n - 1) & hash]) == null)
23 tab[i] = newNode(hash, key, value, null);
24 /*表示有冲突,开始处理冲突*/
25 else {
26 Node<K,V> e;
27 K k;
28 /*检查第一个Node,p是不是要找的值*/
29 if (p.hash == hash &&((k = p.key) == key || (key != null && key.equals(k))))
30 e = p;
31 else if (p instanceof TreeNode)
32 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
33 else {
34 for (int binCount = 0; ; ++binCount) {
35 /*指针为空就挂在后面*/
36 if ((e = p.next) == null) {
37 p.next = newNode(hash, key, value, null);
38 //如果冲突的节点数已经达到8个,看是否需要改变冲突节点的存储结构,             
39             //treeifyBin首先判断当前hashMap的长度,如果不足64,只进行
40 //resize,扩容table,如果达到64,那么将冲突的存储结构为红黑树
41 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
42 treeifyBin(tab, hash);
43 break;
44 }
45 /*如果有相同的key值就结束遍历*/
46 if (e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k))))
47 break;
48 p = e;
49 }
50 }
51 /*就是链表上有相同的key值*/
52 if (e != null) { // existing mapping for key,就是key的Value存在
53 V oldValue = e.value;
54 if (!onlyIfAbsent || oldValue == null)
55 e.value = value;
56 afterNodeAccess(e);
57 return oldValue;//返回存在的Value值
58 }
59 }
60 ++modCount;
61 /*如果当前大小大于门限,门限原本是初始容量*0.75*/
62 if (++size > threshold)
63 resize();//扩容两倍
64 afterNodeInsertion(evict);
65 return null;
66 }

下面简单说下添加键值对put(key,value)的过程:
1,判断键值对数组tab[]是否为空或为null,否则以默认大小resize();
2,根据键值key计算hash值得到插入的数组索引i,如果tab[i]==null,直接新建节点添加,否则转入3
3,判断当前数组中处理hash冲突的方式为链表还是红黑树(check第一个节点类型即可),分别处理

五,HasMap的扩容机制resize();

构造hash表时,如果不指明初始大小,默认大小为16(即Node数组大小16),如果Node[]数组中的元素达到(填充比*Node.length)重新调整HashMap大小 变为原来2倍大小,扩容很耗时

 1  /**
2 * Initializes or doubles table size. If null, allocates in
3 * accord with initial capacity target held in field threshold.
4 * Otherwise, because we are using power-of-two expansion, the
5 * elements from each bin must either stay at same index, or move
6 * with a power of two offset in the new table.
7 *
8 * @return the table
9 */
10 final Node<K,V>[] resize() {
11 Node<K,V>[] oldTab = table;
12 int oldCap = (oldTab == null) ? 0 : oldTab.length;
13 int oldThr = threshold;
14 int newCap, newThr = 0;
15
16 /*如果旧表的长度不是空*/
17 if (oldCap > 0) {
18 if (oldCap >= MAXIMUM_CAPACITY) {
19 threshold = Integer.MAX_VALUE;
20 return oldTab;
21 }
22 /*把新表的长度设置为旧表长度的两倍,newCap=2*oldCap*/
23 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
24 oldCap >= DEFAULT_INITIAL_CAPACITY)
25 /*把新表的门限设置为旧表门限的两倍,newThr=oldThr*2*/
26 newThr = oldThr << 1; // double threshold
27 }
28 /*如果旧表的长度的是0,就是说第一次初始化表*/
29 else if (oldThr > 0) // initial capacity was placed in threshold
30 newCap = oldThr;
31 else { // zero initial threshold signifies using defaults
32 newCap = DEFAULT_INITIAL_CAPACITY;
33 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
34 }
35
36
37
38 if (newThr == 0) {
39 float ft = (float)newCap * loadFactor;//新表长度乘以加载因子
40 newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
41 (int)ft : Integer.MAX_VALUE);
42 }
43 threshold = newThr;
44 @SuppressWarnings({"rawtypes","unchecked"})
45 /*下面开始构造新表,初始化表中的数据*/
46 Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
47 table = newTab;//把新表赋值给table
48 if (oldTab != null) {//原表不是空要把原表中数据移动到新表中
49 /*遍历原来的旧表*/
50 for (int j = 0; j < oldCap; ++j) {
51 Node<K,V> e;
52 if ((e = oldTab[j]) != null) {
53 oldTab[j] = null;
54 if (e.next == null)//说明这个node没有链表直接放在新表的e.hash & (newCap - 1)位置
55 newTab[e.hash & (newCap - 1)] = e;
56 else if (e instanceof TreeNode)
57 ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
58 /*如果e后边有链表,到这里表示e后面带着个单链表,需要遍历单链表,将每个结点重*/
59 else { // preserve order保证顺序
60 ////新计算在新表的位置,并进行搬运
61 Node<K,V> loHead = null, loTail = null;
62 Node<K,V> hiHead = null, hiTail = null;
63 Node<K,V> next;
64
65 do {
66 next = e.next;//记录下一个结点
67 //新表是旧表的两倍容量,实例上就把单链表拆分为两队,
68              //e.hash&oldCap为偶数一队,e.hash&oldCap为奇数一对
69 if ((e.hash & oldCap) == 0) {
70 if (loTail == null)
71 loHead = e;
72 else
73 loTail.next = e;
74 loTail = e;
75 }
76 else {
77 if (hiTail == null)
78 hiHead = e;
79 else
80 hiTail.next = e;
81 hiTail = e;
82 }
83 } while ((e = next) != null);
84
85 if (loTail != null) {//lo队不为null,放在新表原位置
86 loTail.next = null;
87 newTab[j] = loHead;
88 }
89 if (hiTail != null) {//hi队不为null,放在新表j+oldCap位置
90 hiTail.next = null;
91 newTab[j + oldCap] = hiHead;
92 }
93 }
94 }
95 }
96 }
97 return newTab;
98 }

HashMap扩容可以分为三种情况:

第一种:使用默认构造方法初始化HashMap。从前文可以知道HashMap在一开始初始化的时候会返回一个空的table,并且thershold为0。因此第一次扩容的容量为默认值DEFAULT_INITIAL_CAPACITY也就是16。同时threshold = DEFAULT_INITIAL_CAPACITY * DEFAULT_LOAD_FACTOR = 12。

第二种:指定初始容量的构造方法初始化HashMap。那么从下面源码可以看到初始容量会等于threshold,接着threshold = 当前的容量(threshold) * DEFAULT_LOAD_FACTOR。

第三种:HashMap不是第一次扩容。如果HashMap已经扩容过的话,那么每次table的容量以及threshold量为原有的两倍。

什么情况会导致扩容?

1.链表转换为红黑树时(链表节点个数达到8个可能会转换为红黑树)。如果转换时map长度小于64则直接扩容一倍,不转化为红黑树。如果此时map长度大于64,则不会扩容,直接进行链表转红黑树的操作。

2.map中总节点数大于阈值(即大于map长度的0.75倍)时会进行扩容。

如何扩容?

1.创建一个新的map,是原先map的两倍。注意此过程是单线程创建的

2.复制旧的map到新的map中。

将原数组元素平移至新数组:

如果旧数组不为空,当我们在扩容时就需要将旧数组的数组迁移到新数组,数据迁移需要遍历旧数组,将旧数组每一个数组下标index的数据移动到新数组中。如果遍历数组时发现当前位置存放着Node链表,这个时候需要对Node结点的Hash值与新数组长度进行&运算。如果计算出来的值为0,将旧数组当前位置的Node链表赋值到新数组相同位置,即newTab[j] = loHead。如果计算出来的值不为0,此时将当前位置的Node链表赋值给新数组当前位置加上旧数组长度的位置,即newTab[j + oldCap] = hiHead。

如果想要理解这个过程,需要首先明白JDK1.8中HashMap如何计算数组下标。

int index = node.hash&(table.length-1);
&运算能够保证计算出来的值小于等于其中任何一个值,因此计算出来的数组下标index小于等于table.length-1。

可是在数组两倍扩容后,数组的长度发生了变化,同时我们也必须要严格遵守数组下标index的算法,否则在get时无法获取到对应Node结点。因此将旧数组中的数据迁移到新数组后,需要按照新数组长度重新计算数组下标。如果还是通过&运算计算数组下标,我们就需要遍历数组中所有的结点,并计算出结点的Hash值,并将Hash值与数组的长度减1进行&运算得出数组下标。而HashMap的实现者明显找到了更便捷的算法。而这种算法分为两种情况。

注:注意Node结点Hash值二进制表示的标红位数变化。

情况一:Hash值与旧数组长度的&运算不为0
node.hash & oldTable.length != 0;
我们假设Node结点的Hash值的二进制是1000010101,旧数组长度为16,二进制即10000。此时计算出来的index为5。

Hash :1000010101
length-1 :0000001111
——————————
index : 0000000101
当我们对数组进行扩容,数组的长度变成了32,Node结点的Hash值依然为1000010101。此时计算出来的index为21。

Hash :1000010101
length-1 :0000011111
——————————
index : 0000010101
结点平移后,此时计算出来的存放结点的新数组下标为旧数组下标加上旧数组的长度,即newIndex = oldIndex+oldLength;

情况二:Hash值与旧数组长度的&运算为0
node.hash & oldTable.length == 0;
我们假设Node结点的Hash值的二进制是1000000101,旧数组长度为16,二进制即10000。此时计算出来的index为5。

Hash :1000010101
length-1 :0000001111
——————————
index : 0000000101
当我们对数组进行扩容,数组的长度变成了32,Node几点的Hash值依然为1000000101。此时计算出来的index仍为5。

Hash :1000000101
length-1 :0000011111
——————————
index : 0000000101
结点平移后,此时计算存放结点的新数组下标与旧数组下标相等,即newIndex = oldIndex。

六,JDK1.8使用红黑树的改进

Javajdk8中对HashMap的源码进行了优化,在jdk7中,HashMap处理“碰撞”的时候,都是采用链表来存储,当碰撞的结点很多时,查询时间是O(n)。
在jdk8中,HashMap处理“碰撞”增加了红黑树这种数据结构,当碰撞结点较少时,采用链表存储,当较大时(>8个),且数组元素个数大于64时,采用红黑树(特点是查询时间是O(logn))存储(有一个阀值控制,大于阀值(8个),将链表存储转换成红黑树存储)

问题分析:

你可能还知道哈希碰撞会对hashMap的性能带来灾难性的影响。如果多个hashCode()的值落到同一个桶内的时候,这些值是存储到一个链表中的。最坏的情况下,所有的key都映射到同一个桶中,这样hashmap就退化成了一个链表——查找时间从O(1)到O(n)。

随着HashMap的大小的增长,get()方法的开销也越来越大。由于所有的记录都在同一个桶里的超长链表内,平均查询一条记录就需要遍历一半的链表。

JDK1.8HashMap的红黑树是这样解决的

如果某个桶中的记录过大的话(当前是TREEIFY_THRESHOLD = 8),HashMap会动态的使用一个专门的treemap实现来替换掉它。这样做的结果会更好,是O(logn),而不是糟糕的O(n)。

它是如何工作的?前面产生冲突的那些KEY对应的记录只是简单的追加到一个链表后面,这些记录只能通过遍历来进行查找。但是超过这个阈值后HashMap开始将列表升级成一个二叉树,使用哈希值作为树的分支变量,如果两个哈希值不等,但指向同一个桶的话,较大的那个会插入到右子树里。如果哈希值相等,HashMap希望key值最好是实现了Comparable接口的,这样它可以按照顺序来进行插入。这对HashMap的key来说并不是必须的,不过如果实现了当然最好。如果没有实现这个接口,在出现严重的哈希碰撞的时候,你就并别指望能获得性能提升了。

大家可以相互学习,我们都是热爱编程的IT少年,大家一起努力,让我们的IT梦飞得更高吧!!!

 

HashMap实现原理(JDK1.8)的更多相关文章

  1. HashMap实现原理(jdk1.7),源码分析

    HashMap实现原理(jdk1.7),源码分析 ​ HashMap是一个用来存储Key-Value键值对的集合,每一个键值对都是一个Entry对象,这些Entry被以某种方式分散在一个数组中,这个数 ...

  2. JDK1.8的HashMap实现原理和源码解析

    哈希表(hash table)也叫散列表,是一种非常重要的数据结构.许多缓存技术(比如memcached)的核心其实就是在内存中维护一张大的哈希表,本文会对java集合框架中的对应实现HashMap的 ...

  3. HashMap实现原理及源码分析(JDK1.7)

    转载:https://www.cnblogs.com/chengxiao/p/6059914.html 哈希表(hash table)也叫散列表,是一种非常重要的数据结构,应用场景及其丰富,许多缓存技 ...

  4. HashMap实现原理和源码解析

    哈希表(hash table)也叫散列表,是一种非常重要的数据结构.许多缓存技术(比如memcached)的核心其实就是在内存中维护一张大的哈希表,本文会对java集合框架中的对应实现HashMap的 ...

  5. 最简单的HashMap底层原理介绍

    HashMap 底层原理  1.HashMap底层概述 2.JDK1.7实现方式 3.JDK1.8实现方式 4.关键名词 5.相关问题 1.HashMap底层概述 在JDK1.7中HashMap采用的 ...

  6. HashMap实现原理及源码分析之JDK8

    继续上回HashMap的学习 HashMap实现原理及源码分析之JDK7 转载 Java8源码-HashMap  基于JDK8的HashMap源码解析  [jdk1.8]HashMap源码分析 一.H ...

  7. hashMap的原理

    hashMap的原理分析(转载) 1.总结: HashMap是基于哈希表实现的,用Entry[]来存储数据,而Entry中封装了key.value.hash以及Entry类型的next HashMap ...

  8. 集合 HashMap 的原理,与 Hashtable、ConcurrentHashMap 的区别

    一.HashMap 的原理 1.HashMap简介 简单来讲,HashMap底层是由数组+链表的形式实现,数组是HashMap的主体,链表则是主要为了解决哈希冲突而存在的,如果定位到的数组位置不含链表 ...

  9. HashMap实现原理一步一步分析(1-put方法源码整体过程)

    各位同学大家好, 今天给大家分享一下HashMap内部的实现原理, 这一块也是在面试过程当中基础部分被问得比较多的一部分. 想要搞清楚HashMap内部的实现原理,我们需要先对一些基本的概念有一些了解 ...

  10. HashMap实现原理及源码分析

    哈希表(hash table)也叫散列表,是一种非常重要的数据结构,应用场景及其丰富,许多缓存技术(比如memcached)的核心其实就是在内存中维护一张大的哈希表,而HashMap的实现原理也常常出 ...

随机推荐

  1. scrapy框架xpath的几点说明

    1.xpath返回的是一个列表 2.调用Selector对象的extract方法将返回选中内容的Unicode字符串 SelectorList对象调用extract_first() 方法会返回其中第一 ...

  2. if-else代码优化的八种方案

    前言 代码中如果if-else比较多,阅读起来比较困难,维护起来也比较困难,很容易出bug,接下来,本文将介绍优化if-else代码的八种方案. 优化方案一:提前return,去除不必要的else 如 ...

  3. VirtualBox 版本 6.1.2 r135662, ubuntu18 配置共享文件夹、openssh-server

    续上章安装完ubuntu18. 输入账号密码,登录成功. 但是使用ssh工具,却登录失败. 1.安装openssh-server sudo apt install openssh-server 2.检 ...

  4. 动态规划/MinMax-Stone Game

    2019-09-07 16:34:48 877. Stone Game 问题描述: 问题求解: 典型的博弈问题,也是一个典型的min-max问题.通常使用算diff的方法把min-max转为求max. ...

  5. 利用 MinIO 轻松搭建静态资源服务

    目录 1 引言 2 MinIO 简介 3 MinIO 运行与静态资源使用 3.1 MinIO 获取 3.2 MinIO 启动与运行 3.2.1 前台简单启动 3.2.2 后台指定参数运行 3.2.3 ...

  6. 福利,OpenCV最新中文版官方教程来了

    OpenCV 中文版官方教程来了. OpenCV是计算机视觉中经典的专用库,然而其中文版官方教程久久不来.近日,一款最新OpenCV4.1 版本的完整中文版官方教程出炉,读者朋友可以更好的学习了解Op ...

  7. TensorFlow 多 GPU 处理并行数据

    Multi-GPU processing with data parallelism If you write your software in a language like C++ for a s ...

  8. TensorFlow系列专题(八):七步带你实现RNN循环神经网络小示例

    欢迎大家关注我们的网站和系列教程:http://panchuang.net/ ,学习更多的机器学习.深度学习的知识! [前言]:在前面的内容里,我们已经学习了循环神经网络的基本结构和运算过程,这一小节 ...

  9. 模块 heapq_堆排序

    _heapq_堆排序 该模块提供了堆排序算法的实现.堆是二叉树,最大堆中父节点大于或等于两个子节点,最小堆父节点小于或等于两个子节点. 创建堆 heapq有两种方式创建堆, 一种是使用一个空列表,然后 ...

  10. layuiadmin使用Ueditor 获取不了数据的解决方法

    表单根元素请使用form元素,layuiadmin 默认使用div作为表单根元素. <form class="layui-form"> <textarea nam ...