转载请注明出处:http://blog.csdn.net/ns_code/article/details/37867985

 

前言:有网友建议分析下LinkedHashMap的源码,于是花了一晚上时间研究了下,分享出此文(这个系列的最后一篇博文了),希望大家相互学习。LinkedHashMap的源码理解起来也不难(当然,要建立在对HashMap源码有较好理解的基础上)。

LinkedHashMap简介

LinkedHashMap是HashMap的子类,与HashMap有着同样的存储结构,但它加入了一个双向链表的头结点,将所有put到LinkedHashmap的节点一一串成了一个双向循环链表,因此它保留了节点插入的顺序,可以使节点的输出顺序与输入顺序相同。

LinkedHashMap可以用来实现LRU算法(这会在下面的源码中进行分析)。

LinkedHashMap同样是非线程安全的,只在单线程环境下使用。

LinkedHashMap源码剖析

LinkedHashMap源码如下(加入了详细的注释):

  1. package java.util;
  2. import java.io.*;
  3. public class LinkedHashMap<K,V>
  4. extends HashMap<K,V>
  5. implements Map<K,V>
  6. {
  7. private static final long serialVersionUID = 3801124242820219131L;
  8. //双向循环链表的头结点,整个LinkedHa只哟shMap中只有一个header,
  9. //它将哈希表中所有的Entry贯穿起来,header中不保存key-value对,只保存前后节点的引用
  10. private transient Entry<K,V> header;
  11. //双向链表中元素排序规则的标志位。
  12. //accessOrder为false,表示按插入顺序排序
  13. //accessOrder为true,表示按访问顺序排序
  14. private final boolean accessOrder;
  15. //调用HashMap的构造方法来构造底层的数组
  16. public LinkedHashMap(int initialCapacity, float loadFactor) {
  17. super(initialCapacity, loadFactor);
  18. accessOrder = false;    //链表中的元素默认按照插入顺序排序
  19. }
  20. //加载因子取默认的0.75f
  21. public LinkedHashMap(int initialCapacity) {
  22. super(initialCapacity);
  23. accessOrder = false;
  24. }
  25. //加载因子取默认的0.75f,容量取默认的16
  26. public LinkedHashMap() {
  27. super();
  28. accessOrder = false;
  29. }
  30. //含有子Map的构造方法,同样调用HashMap的对应的构造方法
  31. public LinkedHashMap(Map<? extends K, ? extends V> m) {
  32. super(m);
  33. accessOrder = false;
  34. }
  35. //该构造方法可以指定链表中的元素排序的规则
  36. public LinkedHashMap(int initialCapacity,float loadFactor,boolean accessOrder) {
  37. super(initialCapacity, loadFactor);
  38. this.accessOrder = accessOrder;
  39. }
  40. //覆写父类的init()方法(HashMap中的init方法为空),
  41. //该方法在父类的构造方法和Clone、readObject中在插入元素前被调用,
  42. //初始化一个空的双向循环链表,头结点中不保存数据,头结点的下一个节点才开始保存数据。
  43. void init() {
  44. header = new Entry<K,V>(-1, null, null, null);
  45. header.before = header.after = header;
  46. }
  47. //覆写HashMap中的transfer方法,它在父类的resize方法中被调用,
  48. //扩容后,将key-value对重新映射到新的newTable中
  49. //覆写该方法的目的是为了提高复制的效率,
  50. //这里充分利用双向循环链表的特点进行迭代,不用对底层的数组进行for循环。
  51. void transfer(HashMap.Entry[] newTable) {
  52. int newCapacity = newTable.length;
  53. for (Entry<K,V> e = header.after; e != header; e = e.after) {
  54. int index = indexFor(e.hash, newCapacity);
  55. e.next = newTable[index];
  56. newTable[index] = e;
  57. }
  58. }
  59. //覆写HashMap中的containsValue方法,
  60. //覆写该方法的目的同样是为了提高查询的效率,
  61. //利用双向循环链表的特点进行查询,少了对数组的外层for循环
  62. public boolean containsValue(Object value) {
  63. // Overridden to take advantage of faster iterator
  64. if (value==null) {
  65. for (Entry e = header.after; e != header; e = e.after)
  66. if (e.value==null)
  67. return true;
  68. } else {
  69. for (Entry e = header.after; e != header; e = e.after)
  70. if (value.equals(e.value))
  71. return true;
  72. }
  73. return false;
  74. }
  75. //覆写HashMap中的get方法,通过getEntry方法获取Entry对象。
  76. //注意这里的recordAccess方法,
  77. //如果链表中元素的排序规则是按照插入的先后顺序排序的话,该方法什么也不做,
  78. //如果链表中元素的排序规则是按照访问的先后顺序排序的话,则将e移到链表的末尾处。
  79. public V get(Object key) {
  80. Entry<K,V> e = (Entry<K,V>)getEntry(key);
  81. if (e == null)
  82. return null;
  83. e.recordAccess(this);
  84. return e.value;
  85. }
  86. //清空HashMap,并将双向链表还原为只有头结点的空链表
  87. public void clear() {
  88. super.clear();
  89. header.before = header.after = header;
  90. }
  91. //Enty的数据结构,多了两个指向前后节点的引用
  92. private static class Entry<K,V> extends HashMap.Entry<K,V> {
  93. // These fields comprise the doubly linked list used for iteration.
  94. Entry<K,V> before, after;
  95. //调用父类的构造方法
  96. Entry(int hash, K key, V value, HashMap.Entry<K,V> next) {
  97. super(hash, key, value, next);
  98. }
  99. //双向循环链表中,删除当前的Entry
  100. private void remove() {
  101. before.after = after;
  102. after.before = before;
  103. }
  104. //双向循环立链表中,将当前的Entry插入到existingEntry的前面
  105. private void addBefore(Entry<K,V> existingEntry) {
  106. after  = existingEntry;
  107. before = existingEntry.before;
  108. before.after = this;
  109. after.before = this;
  110. }
  111. //覆写HashMap中的recordAccess方法(HashMap中该方法为空),
  112. //当调用父类的put方法,在发现插入的key已经存在时,会调用该方法,
  113. //调用LinkedHashmap覆写的get方法时,也会调用到该方法,
  114. //该方法提供了LRU算法的实现,它将最近使用的Entry放到双向循环链表的尾部,
  115. //accessOrder为true时,get方法会调用recordAccess方法
  116. //put方法在覆盖key-value对时也会调用recordAccess方法
  117. //它们导致Entry最近使用,因此将其移到双向链表的末尾
  118. void recordAccess(HashMap<K,V> m) {
  119. LinkedHashMap<K,V> lm = (LinkedHashMap<K,V>)m;
  120. //如果链表中元素按照访问顺序排序,则将当前访问的Entry移到双向循环链表的尾部,
  121. //如果是按照插入的先后顺序排序,则不做任何事情。
  122. if (lm.accessOrder) {
  123. lm.modCount++;
  124. //移除当前访问的Entry
  125. remove();
  126. //将当前访问的Entry插入到链表的尾部
  127. addBefore(lm.header);
  128. }
  129. }
  130. void recordRemoval(HashMap<K,V> m) {
  131. remove();
  132. }
  133. }
  134. //迭代器
  135. private abstract class LinkedHashIterator<T> implements Iterator<T> {
  136. Entry<K,V> nextEntry    = header.after;
  137. Entry<K,V> lastReturned = null;
  138. /**
  139. * The modCount value that the iterator believes that the backing
  140. * List should have.  If this expectation is violated, the iterator
  141. * has detected concurrent modification.
  142. */
  143. int expectedModCount = modCount;
  144. public boolean hasNext() {
  145. return nextEntry != header;
  146. }
  147. public void remove() {
  148. if (lastReturned == null)
  149. throw new IllegalStateException();
  150. if (modCount != expectedModCount)
  151. throw new ConcurrentModificationException();
  152. LinkedHashMap.this.remove(lastReturned.key);
  153. lastReturned = null;
  154. expectedModCount = modCount;
  155. }
  156. //从head的下一个节点开始迭代
  157. Entry<K,V> nextEntry() {
  158. if (modCount != expectedModCount)
  159. throw new ConcurrentModificationException();
  160. if (nextEntry == header)
  161. throw new NoSuchElementException();
  162. Entry<K,V> e = lastReturned = nextEntry;
  163. nextEntry = e.after;
  164. return e;
  165. }
  166. }
  167. //key迭代器
  168. private class KeyIterator extends LinkedHashIterator<K> {
  169. public K next() { return nextEntry().getKey(); }
  170. }
  171. //value迭代器
  172. private class ValueIterator extends LinkedHashIterator<V> {
  173. public V next() { return nextEntry().value; }
  174. }
  175. //Entry迭代器
  176. private class EntryIterator extends LinkedHashIterator<Map.Entry<K,V>> {
  177. public Map.Entry<K,V> next() { return nextEntry(); }
  178. }
  179. // These Overrides alter the behavior of superclass view iterator() methods
  180. Iterator<K> newKeyIterator()   { return new KeyIterator();   }
  181. Iterator<V> newValueIterator() { return new ValueIterator(); }
  182. Iterator<Map.Entry<K,V>> newEntryIterator() { return new EntryIterator(); }
  183. //覆写HashMap中的addEntry方法,LinkedHashmap并没有覆写HashMap中的put方法,
  184. //而是覆写了put方法所调用的addEntry方法和recordAccess方法,
  185. //put方法在插入的key已存在的情况下,会调用recordAccess方法,
  186. //在插入的key不存在的情况下,要调用addEntry插入新的Entry
  187. void addEntry(int hash, K key, V value, int bucketIndex) {
  188. //创建新的Entry,并插入到LinkedHashMap中
  189. createEntry(hash, key, value, bucketIndex);
  190. //双向链表的第一个有效节点(header后的那个节点)为近期最少使用的节点
  191. Entry<K,V> eldest = header.after;
  192. //如果有必要,则删除掉该近期最少使用的节点,
  193. //这要看对removeEldestEntry的覆写,由于默认为false,因此默认是不做任何处理的。
  194. if (removeEldestEntry(eldest)) {
  195. removeEntryForKey(eldest.key);
  196. } else {
  197. //扩容到原来的2倍
  198. if (size >= threshold)
  199. resize(2 * table.length);
  200. }
  201. }
  202. void createEntry(int hash, K key, V value, int bucketIndex) {
  203. //创建新的Entry,并将其插入到数组对应槽的单链表的头结点处,这点与HashMap中相同
  204. HashMap.Entry<K,V> old = table[bucketIndex];
  205. Entry<K,V> e = new Entry<K,V>(hash, key, value, old);
  206. table[bucketIndex] = e;
  207. //每次插入Entry时,都将其移到双向链表的尾部,
  208. //这便会按照Entry插入LinkedHashMap的先后顺序来迭代元素,
  209. //同时,新put进来的Entry是最近访问的Entry,把其放在链表末尾 ,符合LRU算法的实现
  210. e.addBefore(header);
  211. size++;
  212. }
  213. //该方法是用来被覆写的,一般如果用LinkedHashmap实现LRU算法,就要覆写该方法,
  214. //比如可以将该方法覆写为如果设定的内存已满,则返回true,这样当再次向LinkedHashMap中put
  215. //Entry时,在调用的addEntry方法中便会将近期最少使用的节点删除掉(header后的那个节点)。
  216. protected boolean removeEldestEntry(Map.Entry<K,V> eldest) {
  217. return false;
  218. }
  219. }

几点总结

关于LinkedHashMap的源码,给出以下几点比较重要的总结:

1、从源码中可以看出,LinkedHashMap中加入了一个head头结点,将所有插入到该LinkedHashMap中的Entry按照插入的先后顺序依次加入到以head为头结点的双向循环链表的尾部。

实际上就是HashMap和LinkedList两个集合类的存储结构的结合。在LinkedHashMapMap中,所有put进来的Entry都保存在如第一个图所示的哈希表中,但它又额外定义了一个以head为头结点的空的双向循环链表,每次put进来Entry,除了将其保存到对哈希表中对应的位置上外,还要将其插入到双向循环链表的尾部。

2、LinkedHashMap由于继承自HashMap,因此它具有HashMap的所有特性,同样允许key和value为null。

3、注意源码中的accessOrder标志位,当它false时,表示双向链表中的元素按照Entry插入LinkedHashMap到中的先后顺序排序,即每次put到LinkedHashMap中的Entry都放在双向链表的尾部,这样遍历双向链表时,Entry的输出顺序便和插入的顺序一致,这也是默认的双向链表的存储顺序;当它为true时,表示双向链表中的元素按照访问的先后顺序排列,可以看到,虽然Entry插入链表的顺序依然是按照其put到LinkedHashMap中的顺序,但put和get方法均有调用recordAccess方法(put方法在key相同,覆盖原有的Entry的情况下调用recordAccess方法),该方法判断accessOrder是否为true,如果是,则将当前访问的Entry(put进来的Entry或get出来的Entry)移到双向链表的尾部(key不相同时,put新Entry时,会调用addEntry,它会调用creatEntry,该方法同样将新插入的元素放入到双向链表的尾部,既符合插入的先后顺序,又符合访问的先后顺序,因为这时该Entry也被访问了),否则,什么也不做。

4、注意构造方法,前四个构造方法都将accessOrder设为false,说明默认是按照插入顺序排序的,而第五个构造方法可以自定义传入的accessOrder的值,因此可以指定双向循环链表中元素的排序规则,一般要用LinkedHashMap实现LRU算法,就要用该构造方法,将accessOrder置为true。

5、LinkedHashMap并没有覆写HashMap中的put方法,而是覆写了put方法中调用的addEntry方法和recordAccess方法,我们回过头来再看下HashMap的put方法:

  1. // 将“key-value”添加到HashMap中
  2. public V put(K key, V value) {
  3. // 若“key为null”,则将该键值对添加到table[0]中。
  4. if (key == null)
  5. return putForNullKey(value);
  6. // 若“key不为null”,则计算该key的哈希值,然后将其添加到该哈希值对应的链表中。
  7. int hash = hash(key.hashCode());
  8. int i = indexFor(hash, table.length);
  9. for (Entry<K,V> e = table[i]; e != null; e = e.next) {
  10. Object k;
  11. // 若“该key”对应的键值对已经存在,则用新的value取代旧的value。然后退出!
  12. if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
  13. V oldValue = e.value;
  14. e.value = value;
  15. e.recordAccess(this);
  16. return oldValue;
  17. }
  18. }
  19. // 若“该key”对应的键值对不存在,则将“key-value”添加到table中
  20. modCount++;
  21. //将key-value添加到table[i]处
  22. addEntry(hash, key, value, i);
  23. return null;
  24. }

当要put进来的Entry的key在哈希表中已经在存在时,会调用recordAccess方法,当该key不存在时,则会调用addEntry方法将新的Entry插入到对应槽的单链表的头部。

我们先来看recordAccess方法:

  1. //覆写HashMap中的recordAccess方法(HashMap中该方法为空),
  2. //当调用父类的put方法,在发现插入的key已经存在时,会调用该方法,
  3. //调用LinkedHashmap覆写的get方法时,也会调用到该方法,
  4. //该方法提供了LRU算法的实现,它将最近使用的Entry放到双向循环链表的尾部,
  5. //accessOrder为true时,get方法会调用recordAccess方法
  6. //put方法在覆盖key-value对时也会调用recordAccess方法
  7. //它们导致Entry最近使用,因此将其移到双向链表的末尾
  8. void recordAccess(HashMap<K,V> m) {
  9. LinkedHashMap<K,V> lm = (LinkedHashMap<K,V>)m;
  10. //如果链表中元素按照访问顺序排序,则将当前访问的Entry移到双向循环链表的尾部,
  11. //如果是按照插入的先后顺序排序,则不做任何事情。
  12. if (lm.accessOrder) {
  13. lm.modCount++;
  14. //移除当前访问的Entry
  15. remove();
  16. //将当前访问的Entry插入到链表的尾部
  17. addBefore(lm.header);
  18. }
  19. }

该方法会判断accessOrder是否为true,如果为true,它会将当前访问的Entry(在这里指put进来的Entry)移动到双向循环链表的尾部,从而实现双向链表中的元素按照访问顺序来排序(最近访问的Entry放到链表的最后,这样多次下来,前面就是最近没有被访问的元素,在实现、LRU算法时,当双向链表中的节点数达到最大值时,将前面的元素删去即可,因为前面的元素是最近最少使用的),否则什么也不做。
    再来看addEntry方法:

  1. //覆写HashMap中的addEntry方法,LinkedHashmap并没有覆写HashMap中的put方法,
  2. //而是覆写了put方法所调用的addEntry方法和recordAccess方法,
  3. //put方法在插入的key已存在的情况下,会调用recordAccess方法,
  4. //在插入的key不存在的情况下,要调用addEntry插入新的Entry
  5. void addEntry(int hash, K key, V value, int bucketIndex) {
  6. //创建新的Entry,并插入到LinkedHashMap中
  7. createEntry(hash, key, value, bucketIndex);
  8. //双向链表的第一个有效节点(header后的那个节点)为近期最少使用的节点
  9. Entry<K,V> eldest = header.after;
  10. //如果有必要,则删除掉该近期最少使用的节点,
  11. //这要看对removeEldestEntry的覆写,由于默认为false,因此默认是不做任何处理的。
  12. if (removeEldestEntry(eldest)) {
  13. removeEntryForKey(eldest.key);
  14. } else {
  15. //扩容到原来的2倍
  16. if (size >= threshold)
  17. resize(2 * table.length);
  18. }
  19. }
  20. void createEntry(int hash, K key, V value, int bucketIndex) {
  21. //创建新的Entry,并将其插入到数组对应槽的单链表的头结点处,这点与HashMap中相同
  22. HashMap.Entry<K,V> old = table[bucketIndex];
  23. Entry<K,V> e = new Entry<K,V>(hash, key, value, old);
  24. table[bucketIndex] = e;
  25. //每次插入Entry时,都将其移到双向链表的尾部,
  26. //这便会按照Entry插入LinkedHashMap的先后顺序来迭代元素,
  27. //同时,新put进来的Entry是最近访问的Entry,把其放在链表末尾 ,符合LRU算法的实现
  28. e.addBefore(header);
  29. size++;
  30. }

同样是将新的Entry插入到table中对应槽所对应单链表的头结点中,但可以看出,在createEntry中,同样把新put进来的Entry插入到了双向链表的尾部,从插入顺序的层面来说,新的Entry插入到双向链表的尾部,可以实现按照插入的先后顺序来迭代Entry,而从访问顺序的层面来说,新put进来的Entry又是最近访问的Entry,也应该将其放在双向链表的尾部。

上面还有个removeEldestEntry方法,该方法如下:

  1. //该方法是用来被覆写的,一般如果用LinkedHashmap实现LRU算法,就要覆写该方法,
  2. //比如可以将该方法覆写为如果设定的内存已满,则返回true,这样当再次向LinkedHashMap中put
  3. //Entry时,在调用的addEntry方法中便会将近期最少使用的节点删除掉(header后的那个节点)。
  4. protected boolean removeEldestEntry(Map.Entry<K,V> eldest) {
  5. return false;
  6. }
  7. }

该方法默认返回false,我们一般在用LinkedHashMap实现LRU算法时,要覆写该方法,一般的实现是,当设定的内存(这里指节点个数)达到最大值时,返回true,这样put新的Entry(该Entry的key在哈希表中没有已经存在)时,就会调用removeEntryForKey方法,将最近最少使用的节点删除(head后面的那个节点,实际上是最近没有使用)。
    6、LinkedHashMap覆写了HashMap的get方法:

  1. //覆写HashMap中的get方法,通过getEntry方法获取Entry对象。
  2. //注意这里的recordAccess方法,
  3. //如果链表中元素的排序规则是按照插入的先后顺序排序的话,该方法什么也不做,
  4. //如果链表中元素的排序规则是按照访问的先后顺序排序的话,则将e移到链表的末尾处。
  5. public V get(Object key) {
  6. Entry<K,V> e = (Entry<K,V>)getEntry(key);
  7. if (e == null)
  8. return null;
  9. e.recordAccess(this);
  10. return e.value;
  11. }

先取得Entry,如果不为null,一样调用recordAccess方法,上面已经说得很清楚,这里不在多解释了。    7、最后说说LinkedHashMap是如何实现LRU的。首先,当accessOrder为true时,才会开启按访问顺序排序的模式,才能用来实现LRU算法。我们可以看到,无论是put方法还是get方法,都会导致目标Entry成为最近访问的Entry,因此便把该Entry加入到了双向链表的末尾(get方法通过调用recordAccess方法来实现,put方法在覆盖已有key的情况下,也是通过调用recordAccess方法来实现,在插入新的Entry时,则是通过createEntry中的addBefore方法来实现),这样便把最近使用了的Entry放入到了双向链表的后面,多次操作后,双向链表前面的Entry便是最近没有使用的,这样当节点个数满的时候,删除的最前面的Entry(head后面的那个Entry)便是最近最少使用的Entry。

转:【Java集合源码剖析】LinkedHashmap源码剖析的更多相关文章

  1. Java 集合框架 LinkedHashSet 和 LinkedHashMap 源码剖析

    总体介绍 如果你已看过前面关于HashSet和HashMap,以及TreeSet和TreeMap的讲解,一定能够想到本文将要讲解的LinkedHashSet和LinkedHashMap其实也是一回事. ...

  2. java集合树状结构及源码

    java集合树状结构及源码 最近一直想看一下java集合的源码,毕竟平时用的比较多,但总是感觉是跟着习惯new出来一个对象,比如ArrayList,HashMap等等,所以就简单的看了一下,了解了一下 ...

  3. 1.Java集合-HashMap实现原理及源码分析

    哈希表(Hash  Table)也叫散列表,是一种非常重要的数据结构,应用场景及其丰富,许多缓存技术(比如memcached)的核心其实就是在内存中维护一张大的哈希表,而HashMap的实现原理也常常 ...

  4. Java集合详解及List源码分析

    对于数组我们应该很熟悉,一个数组在内存中总是一块连续的存储空间,数组的创建使用new关键字,数组是引用类型的数据,一旦第一个元素的位置确定,那么后面的元素位置也就确定了,数组有一个最大的局限就是数组一 ...

  5. Java 集合系列Stack详细介绍(源码解析)和使用示例

    Stack简介 Stack是栈.它的特性是:先进后出(FILO, First In Last Out). java工具包中的Stack是继承于Vector(矢量队列)的,由于Vector是通过数组实现 ...

  6. Java集合框架之接口Collection源码分析

    本文我们主要学习Java集合框架的根接口Collection,通过本文我们可以进一步了解Collection的属性及提供的方法.在介绍Collection接口之前我们不得不先学习一下Iterable, ...

  7. 【Java集合】试读ArrayList源码

    ArrayList简介 ArrayList 是一个数组队列,相当于 动态数组.与Java中的数组相比,它的容量能动态增长.它继承于AbstractList,实现了List, RandomAccess, ...

  8. java集合【13】——— Stack源码分析走一波

    前言 集合源码分析系列:Java集合源码分析 前面已经把Vector,ArrayList,LinkedList分析完了,本来是想开始Map这一块,但是看了下面这个接口设计框架图:整个接口框架关系如下( ...

  9. 3.Java集合-HashSet实现原理及源码分析

    一.HashSet概述: HashSet实现Set接口,由哈希表(实际上是一个HashMap实例)支持,它不保证set的迭代顺序很久不变.此类允许使用null元素 二.HashSet的实现: 对于Ha ...

  10. Java集合框架之三:HashMap源码解析

    版权声明:本文为博主原创文章,转载请注明出处,欢迎交流学习! HashMap在我们的工作中应用的非常广泛,在工作面试中也经常会被问到,对于这样一个重要的集合模型我们有必要弄清楚它的使用方法和它底层的实 ...

随机推荐

  1. 使用xlrd模块从excel文件中导入数据

  2. C语言库函数探究

    1.strlen()求字符串长度 //模拟实现strlen函数 #include<stdio.h> #include<stdlib.h> #include<string. ...

  3. php 下载文件

    <?php header("Content-type:text/html;charset=utf-8"); // $file_name="cookie.jpg&qu ...

  4. 已有 JFFs2文件系统的修改

    项目应用中,对于前人留下的JFFS2的文件,有时候我们需要修改,但是苦于没有源文件,实际操作很多时候无所适从.每次支持生产之后再进行人为的升级.这样费时费力,也给生产人员增加了负担. 为了解决这个问题 ...

  5. 使用node自动刷房源并发送可入住房源到邮箱

    因为住的地方离公司太远,每天上下班都要坐很久的班车,所以最近想搬到公司旁边的皖水公寓住.去问了一下公寓的客服,客服说房源现在没有了,只能等到别人退房,才能在网站上申请到. 如果纯靠手动F5刷新浏览器, ...

  6. 两点补充——CSS3新属性以及弹性布局

    CSS3 新属性 一.[ CSS3新增属性前缀 ] 1.-webkit-:chrome/safari 2.-moz-:火狐 3.-mo-:IE 4.-o-: Opera 欧朋 二 .[CSS 长度单位 ...

  7. SSH服务(一)

    一.初始SSH SSH是标准的网络协议,可用于大多数UNIX操作系统,能够实现字符界面的远程登录管理,它默认使用22号端口,采用密文的形式在网络中传输数据,相对于通过明文传输的Telnet,具有更高的 ...

  8. ARC和MRC 兼容的单例模式

    一.ARC下的单例实现 说明:在用户实例化的方法控制单次执行,同时开放单例的初始化方法. -(instancetype)init{ self=[super init]; if(self){ stati ...

  9. asp.net core MVC 过滤器之ActionFilter过滤器(二)

    本系类将会讲解asp.net core MVC中的内置全局过滤器的使用,将分为以下章节 asp.net core MVC 过滤器之ExceptionFilter过滤器(一) asp.net core ...

  10. Redis集群之优化系统参数

    1.最大打开文件数量 (1)编辑资源限制文件,针对redis用户做资源访问控制,在文件尾加入最后两行, sudo vim /etc/security/limits.conf (2) sudo vim ...