首先看看CHM的重要成员变量:

 public class ConcurrentHashMap<K,V> extends AbstractMap<K,V>
implements ConcurrentMap<K,V>, Serializable {
// table最大容量,为2的幂次方
private static final int MAXIMUM_CAPACITY = 1 << 30;
// 默认table初始容量大小
private static final int DEFAULT_CAPACITY = 16;
// 默认支持并发更新的线程数量
private static final int DEFAULT_CONCURRENCY_LEVEL = 16;
// table的负载因子
private static final float LOAD_FACTOR = 0.75f;
// 链表转换为红黑树的节点数阈值,超过这个值,链表转换为红黑树
static final int TREEIFY_THRESHOLD = 8;
// 在扩容期间,由红黑树转换为链表的阈值,小于这个值,resize期间红黑树就会转为链表
static final int UNTREEIFY_THRESHOLD = 6;
// 转为红黑树时,红黑树中节点的最小个数
static final int MIN_TREEIFY_CAPACITY = 64;
// 扩容时,并发转移节点(transfer方法)时,每次转移的最小节点数
private static final int MIN_TRANSFER_STRIDE = 16; // 以下常量定义了特定节点类hash字段的值
static final int MOVED = -1; // ForwardingNode类对象的hash值
static final int TREEBIN = -2; // TreeBin类对象的hash值
static final int RESERVED = -3; // ReservationNode类对象的hash值
static final int HASH_BITS = 0x7fffffff; // 普通Node节点的hash初始值 // table数组
transient volatile Node<K,V>[] table;
// 扩容时,下一个容量大小的talbe,用于将原table元素移动到这个table中
private transient volatile Node<K,V>[] nextTable;
// 基础计数器,计算size
private transient volatile long baseCount;
// table初始容量大小以及扩容容量大小的参数,也用于标识table的状态
// 其有几个值来代表也用来代表table的状态:
// -1 :标识table正在初始化
// - N : 标识table正在进行扩容,并且有N - 1个线程一起在进行扩容(实际上在使用过程中N仅代表sizeCtl的低16位,我会在代码分析中解释)
// 正数:初始table的大小,如果值大于初始容量大小,则表示扩容后的table大小。
private transient volatile int sizeCtl;
// 扩容时,下一个节点转移的bucket索引下标
private transient volatile int transferIndex;
// 一种自旋锁,是专为防止多处理器并发而引入的一种锁,用于创建CounterCells时使用,
// 主要用于size方法计数时,有并发线程插入而计算修改的节点数量,
// 这个数量会与baseCount计数器汇总后得出size的结果。
private transient volatile int cellsBusy;
// 主要用于size方法计数时,有并发线程插入而计算修改的节点数量,
// 这个数量会与baseCount计数器汇总后得出size的结果。
private transient volatile CounterCell[] counterCells;
// 其他省略
}

Put方法

 final V putVal(K key, V value, boolean onlyIfAbsent) {
if (key == null || value == null) throw new NullPointerException();
// 计算hash值
int hash = spread(key.hashCode());
int binCount = 0;
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
if (tab == null || (n = tab.length) == 0)
// 初始化table
tab = initTable();
// 对应的位置上没有节点
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
// CAS操作,将当前value插入对应的位置
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
// 如果对应位置的节点正在进行扩容
else if ((fh = f.hash) == MOVED)
// 帮助扩容
tab = helpTransfer(tab, f);
else {
V oldVal = null;
// 使用对应位置的节点作为锁对象进行加锁
// 1.使其他在对应位置也是当前位置的节点插入操作阻塞
// 2.扩容线程也会使用数组上的节点作为锁对象锁住,所以对当前节点上的扩容与插入操作是互斥的
synchronized (f) {
// 判断tab表是否已经被改变
if (tabAt(tab, i) == f) {
// 当前节点是普通节点
if (fh >= 0) {
// 在addCount()方法中作为扩容校验字段
binCount = 1;
for (Node<K,V> e = f;; ++binCount) {
K ek;
// key相同
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
// 更新值
if (!onlyIfAbsent)
e.val = value;
break;
}
// 遍历链表,插入值
Node<K,V> pred = e;
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
// 如果是红黑树节点
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
// 向树中插入值
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
if (binCount != 0) {
// 判断链表长度是否超过了阈值
if (binCount >= TREEIFY_THRESHOLD)
// 转成红黑树
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
// size+1,并判断是否需要扩容
addCount(1L, binCount);
return null;
}

AddCount方法

 private final void addCount(long x, int check) {
CounterCell[] as; long b, s;
if ((as = counterCells) != null ||// counterCells已经初始化
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)// 未获取到baseCount(表示存在竞争且当前线程竞争失败)
) {
CounterCell a; long v; int m;
boolean uncontended = true;
if (as == null || (m = as.length - 1) < 0 || // counterCells未初始化
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||// CounterCells已初始化且其中找到一个空位能够插入新的CounterCell
!(uncontended =
U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) // CounterCells中对应的位置已被占用,则更新对应的值,如果失败(表示存在竞争)
{
fullAddCount(x, uncontended);// 创建新的counterCell并插入countercells(如果counterCell未初始化,则将其初始化)
return;
}
// 以上条件都不成立表示counterCells已初始化且将新增的size成功更新到CounterCells中
// 1.check=0表示在数组上插入了一个节点 2.check=1表示在链表上插入了一个节点且该节点是链表的第二个节点
// 3.check=2表示在红黑树上插入了一个节点 4.check>1除了情况三之外就是才链表上插入了一个节点并且该节点是链表的第三个或者更后面的节点
// 这里的扩容检查条件为什么跟下面的不一样呢?无法理解,希望知道的朋友能讲解一下
if (check <= 1)
return;
s = sumCount();
}
// check>=0表示需要检查扩容
if (check >= 0) {
Node<K,V>[] tab, nt; int n, sc;
while (s >= (long)(sc = sizeCtl) && (tab = table) != null && // sizeCtl此时表示扩容阈值,如果当前map大小达到阈值
(n = tab.length) < MAXIMUM_CAPACITY) {// 数组长度能够支持继续扩容
// 根据当前数组长度获得一个标识位,该值在32768~32798之间,用二进制表示为1000 0000 0000 0000 ~ 1000 0000 0001 1110
int rs = resizeStamp(n);
// sc<0表示当前正在进行扩容,第二个及以后的扩容线程执行到这里的时候会执行这里
if (sc < 0) {
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || // 校验sc,如果不等于表示sc异常
sc == rs + 1 || // 表示扩容结束,这是个BUG,应该是sc==rs<<RESIZE_STAMP_SHIFT + 1
sc == rs + MAX_RESIZERS || // 表示帮助线程数已经达到最大,这是个BUG,应该是sc==rs<<RESIZE_STAMP_SHIFT + MAX_RESIZERS
(nt = nextTable) == null || // 扩容结束
transferIndex <= 0)// 表示扩容区间已经被领取完毕,不需要新的线程帮助扩容(具体看transfer()方法)
break;
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) // sc+1表示有新的线程帮助扩容(这里加1在逻辑上是减1)
transfer(tab, nt);
}
// 第一个扩容的线程将执行这里,RESIZE_STAMP_SHIFT=16
// rs左移16位,以32768为例,最终得到的结果是 1000 0000 0000 0000 0000 0000 0000 0000,最高位是符号位,为1表示是负数,为0表示是整数
// rs左移16位的目的是为了得到一个负数,然后我们看一下sizeCtl上的注释“标识table正在进行扩容,并且有N - 1个线程一起在进行扩容”
// 所以如果只有一个线程在进行扩容,则sizeCtl值为-2,所以这里会加2
// 执行完这一步之后sizeCtl会变成一个非常大的负数,但是如果我们把高16位忽略掉或者看成符号位,只看低16位,那这个就符合注释的意思,sizeCtl变成-2
else if (U.compareAndSwapInt(this, SIZECTL, sc,
(rs << RESIZE_STAMP_SHIFT) + 2))
// 具体扩容方法
transfer(tab, null);
s = sumCount();
}
}
}

Transfer方法

 private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
int n = tab.length, stride;
// 将 length / 8 然后除以 CPU核心数。如果得到的结果小于 16,那么就使用 16。
// 这里的目的是让每个 CPU 处理的桶一样多,避免出现转移任务不均匀的现象,如果桶较少的话,默认一个 CPU(一个线程)处理 16 个桶
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
stride = MIN_TRANSFER_STRIDE; // subdivide range 细分范围 stridea:TODO
// 新的 table 尚未初始化
if (nextTab == null) { // initiating
try {
// 扩容 2 倍
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
// 更新
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
// 扩容失败, sizeCtl 使用 int 最大值。
sizeCtl = Integer.MAX_VALUE;// 在addCount()中会校验到sizeCtl异常,退出扩容
return;// 结束
}
// 更新成员变量
nextTable = nextTab;
// 更新转移下标,就是 老的 tab 的 length
transferIndex = n;
}
// 新 tab 的 length
int nextn = nextTab.length;
// 创建一个 fwd 节点,用于占位。当别的线程发现这个槽位中是 fwd 类型的节点,则跳过这个节点。
ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
// 推进标志位,如果等于 true,说明需要再次推进一个下标(i--),反之,如果是 false,那么就不能推进下标,需要将当前的下标处理完毕才能继续推进
boolean advance = true;
// 完成状态,如果是 true,就结束此方法。
boolean finishing = false; // to ensure sweep before committing nextTab
// i 表示当前处理的下标,bound 表示当前线程可以处理的当前桶区间最小下标
for (int i = 0, bound = 0;;) {
Node<K,V> f; int fh;
// 如果当前线程可以向后推进;这个循环就是控制 i 递减。同时,每个线程都会进入这里取得自己需要转移的桶的区间
while (advance) {
int nextIndex, nextBound;
// 对 i 减一,判断是否大于等于 bound (正常情况下,如果大于 bound 不成立,说明该线程上次领取的任务已经完成了。那么,需要在下面继续领取任务)
// 如果对 i 减一大于等于 bound(还需要继续做任务),或者完成了,修改推进状态为 false,不能推进了。任务成功后修改推进状态为 true。
// 通常,第一次进入循环,i-- 这个判断会无法通过,从而走下面的 nextIndex 赋值操作(获取最新的转移下标)。其余情况都是:如果可以推进,将 i 减一,然后修改成不可推进。如果 i 对应的桶处理成功了,改成可以推进。
if (--i >= bound || finishing)
advance = false;// 这里设置 false,是为了防止在没有成功处理一个桶的情况下却进行了推进
// 这里的目的是:1. 当一个线程进入时,会选取最新的转移下标。2. 当一个线程处理完自己的区间时,如果还有剩余区间的没有别的线程处理。再次获取区间。
else if ((nextIndex = transferIndex) <= 0) {
// 如果小于等于0,说明没有区间了 ,i 改成 -1,推进状态变成 false,不再推进,表示,扩容结束了,当前线程可以退出了
// 这个 -1 会在下面的 if 块里判断,从而进入完成状态判断
i = -1;
advance = false;// 这里设置 false,是为了防止在没有成功处理一个桶的情况下却进行了推进
}// CAS 修改 transferIndex,即 length - 区间值,留下剩余的区间值供后面的线程使用
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
bound = nextBound;// 这个值就是当前线程可以处理的最小当前区间最小下标
i = nextIndex - 1; // 初次对i 赋值,这个就是当前线程可以处理的当前区间的最大下标
advance = false; // 这里设置 false,是为了防止在没有成功处理一个桶的情况下却进行了推进,这样对导致漏掉某个桶。下面的 if (tabAt(tab, i) == f) 判断会出现这样的情况。
}
}
// 如果 i 小于0 (不在 tab 下标内,按照上面的判断,领取最后一段区间的线程扩容结束)
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
if (finishing) { // 如果完成了扩容
nextTable = null;// 删除临时变量
table = nextTab;// 更新 table
sizeCtl = (n << 1) - (n >>> 1); // 更新阈值(这里相当于将sizeCtl变成了新tab长度的0.75,相当于默认就使用了加载因子0.75,而不是用用户自定义的机加载因子)
return;// 结束方法。
}
// 如果没完成
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {// 尝试将 sc -1. 表示这个线程结束帮助扩容了,将 sc 的低 16 位减一。
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)// 如果 sc - 2 不等于标识符左移 16 位。如果他们相等了,说明没有线程在帮助他们扩容了。也就是说,扩容结束了。
return;// 不相等,说明没结束,当前线程结束方法。
finishing = advance = true;// 如果相等,扩容结束了,更新 finising 变量
i = n; // 再次循环检查tab是否还有遗漏的位置(当扩容线程数量不够,只能够同时对tab的部分区间进行扩容时,就需要重新检查整张表的遗漏位置)
}
}
else if ((f = tabAt(tab, i)) == null) // 获取老 tab i 下标位置的变量,如果是 null,就使用 fwd 占位。
advance = casTabAt(tab, i, null, fwd);// 如果成功写入 fwd 占位,再次推进一个下标
else if ((fh = f.hash) == MOVED)// 如果不是 null 且 hash 值是 MOVED。
advance = true; // already processed // 说明别的线程已经处理过了,再次推进一个下标
else {// 到这里,说明这个位置有实际值了,且不是占位符。对这个节点上锁。为什么上锁,防止 putVal 的时候向链表插入数据
synchronized (f) {
// 判断 i 下标处的桶节点是否和 f 相同
if (tabAt(tab, i) == f) {
Node<K,V> ln, hn;// low, height 高位桶,低位桶
// 如果 f 的 hash 值大于 0 。TreeBin 的 hash 是 -2
if (fh >= 0) {
// 对老长度进行与运算(第一个操作数的的第n位于第二个操作数的第n位如果都是1,那么结果的第n也为1,否则为0)
// 由于 Map 的长度n都是 2 的次方(000001000 这类的数字),那么取于 length 只有 2 种结果,一种是 0,一种是n
// 如果是结果是0 ,Doug Lea 将其放在低位,反之放在高位,目的是将链表重新 hash,放到对应的位置上,让新的取于算法能够击中他。
int runBit = fh & n;
Node<K,V> lastRun = f; // 尾节点,且和头节点的 hash 值取于不相等
// 遍历这个桶
for (Node<K,V> p = f.next; p != null; p = p.next) {
// 取于桶中每个节点的 hash 值
int b = p.hash & n;
// 如果节点的 hash 值和首节点的 hash 值取于结果不同
if (b != runBit) {
runBit = b; // 更新 runBit,用于下面判断 lastRun 该赋值给 ln 还是 hn。
lastRun = p; // 这个 lastRun 保证后面的节点与自己的取于值相同,避免后面没有必要的循环
}
}
if (runBit == 0) {// 如果最后更新的 runBit 是 0 ,设置低位节点
ln = lastRun;
hn = null;
}
else {
hn = lastRun; // 如果最后更新的 runBit 是 n, 设置高位节点
ln = null;
}// 再次循环,生成两个链表,lastRun 作为停止条件,这样就是避免无谓的循环(lastRun 后面都是相同的取于结果)
for (Node<K,V> p = f; p != lastRun; p = p.next) {
int ph = p.hash; K pk = p.key; V pv = p.val;
// 如果与运算结果是 0,那么就还在低位
if ((ph & n) == 0) // 如果是0 ,那么创建低位节点
ln = new Node<K,V>(ph, pk, pv, ln);
else // n 则创建高位
hn = new Node<K,V>(ph, pk, pv, hn);
}
// 其实这里类似 hashMap
// 设置低位链表放在新链表的 i
setTabAt(nextTab, i, ln);
// 设置高位链表,在原有长度上加 n
setTabAt(nextTab, i + n, hn);
// 将旧的链表设置成占位符
setTabAt(tab, i, fwd);
// 继续向后推进
advance = true;
}// 如果是红黑树
else if (f instanceof TreeBin) {
TreeBin<K,V> t = (TreeBin<K,V>)f;
TreeNode<K,V> lo = null, loTail = null;
TreeNode<K,V> hi = null, hiTail = null;
int lc = 0, hc = 0;
// 遍历
for (Node<K,V> e = t.first; e != null; e = e.next) {
int h = e.hash;
TreeNode<K,V> p = new TreeNode<K,V>
(h, e.key, e.val, null, null);
// 和链表相同的判断,与运算 == 0 的放在低位
if ((h & n) == 0) {
if ((p.prev = loTail) == null)
lo = p;
else
loTail.next = p;
loTail = p;
++lc;
} // 是 n 的放在高位
else {
if ((p.prev = hiTail) == null)
hi = p;
else
hiTail.next = p;
hiTail = p;
++hc;
}
}
// 如果树的节点数小于等于 6,那么转成链表,反之,创建一个新的树
ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
(hc != 0) ? new TreeBin<K,V>(lo) : t;
hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
(lc != 0) ? new TreeBin<K,V>(hi) : t;
// 低位树
setTabAt(nextTab, i, ln);
// 高位数
setTabAt(nextTab, i + n, hn);
// 旧的设置成占位符
setTabAt(tab, i, fwd);
// 继续向后推进
advance = true;
}
}
}
}
}
}

  其中值得注意的是,在进行节点迁移的时候,为什么p.hash&n==0就把他放在新tab下标为i的位置(即位置没有改变),而==1就把他放在tab下标为i+n的位置(即老位置+数组增加的长度)?

  首先与运算是满足分配律的,也就是假设b=c+d,那么a&b=(a&c)+(a&d),回到这里,我们把a看成是key.hash,扩容之前数组长度为n,扩容之后为2n,扩容之前一个节点在数组中的位置计算是key.hash&(n-1),那么扩容之后是key.hash&(2n-1)= (key.hash&n)+[key.hash&(n-1)],设一个节点在老数组中的位置是i,那么其在新数组的位置是key.hash&n+i。因为n是2的次幂,与上任意一个数,要么是0要么是n,所以如果key.hash&n=0,那么在老数组中位置为i的元素在新数组中的位置也为i,如果key.hash&n不为0,那么老数组中位置为i的元素在新数组中的位置为i+n,也就对应了代码中的结果。

HelperTransfer方法

 final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {

         Node<K,V>[] nextTab; int sc;

         if (tab != null && (f instanceof ForwardingNode) &&// 当前节点是占位节点
(nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {// 扩容未结束
int rs = resizeStamp(tab.length);
while (nextTab == nextTable && table == tab &&
(sc = sizeCtl) < 0) {
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || // 校验sc,如果不等于表示sc异常
sc == rs + 1 ||// 表示扩容结束,这是个BUG,应该是sc==rs<<RESIZE_STAMP_SHIFT + 1
sc == rs + MAX_RESIZERS // 表示帮助线程数已经达到最大,这是个BUG,应该是sc==rs<<RESIZE_STAMP_SHIFT + MAX_RESIZERS
|| transferIndex <= 0)// 表示扩容区间已经被领取完毕,不需要新的线程帮助扩容(具体看transfer()方法)
break; if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {// 将sizeCtl+1表示有新的线程帮助扩容
// 扩容
transfer(tab, nextTab);
break;
}
}
return nextTab;
}
return table;
}

ConcurrentHashMap源码解析(JDK8)的更多相关文章

  1. ConcurrentHashMap源码解析 JDK8

    一.简介 上篇文章详细介绍了HashMap的源码及原理,本文趁热打铁继续分析ConcurrentHashMap的原理. 首先在看本文之前,希望对HashMap有一个详细的了解.不然看直接看Concur ...

  2. Java之ConcurrentHashMap源码解析

    ConcurrentHashMap源码解析 目录 ConcurrentHashMap源码解析 jdk8之前的实现原理 jdk8的实现原理 变量解释 初始化 初始化table put操作 hash算法 ...

  3. ConcurrentHashMap源码解析,多线程扩容

    前面一篇已经介绍过了 HashMap 的源码: HashMap源码解析.jdk7和8之后的区别.相关问题分析 HashMap并不是线程安全的,他就一个普通的容器,没有做相关的同步处理,因此线程不安全主 ...

  4. ConcurrentHashMap源码解析(1)

    此文已由作者赵计刚授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 注:在看这篇文章之前,如果对HashMap的层不清楚的话,建议先去看看HashMap源码解析. http:/ ...

  5. 第二章 ConcurrentHashMap源码解析

    注:在看这篇文章之前,如果对HashMap的层不清楚的话,建议先去看看HashMap源码解析. http://www.cnblogs.com/java-zhao/p/5106189.html 1.对于 ...

  6. Java并发包源码学习系列:JDK1.8的ConcurrentHashMap源码解析

    目录 为什么要使用ConcurrentHashMap? ConcurrentHashMap的结构特点 Java8之前 Java8之后 基本常量 重要成员变量 构造方法 tableSizeFor put ...

  7. 数据结构算法 - ConcurrentHashMap 源码解析

    五个线程同时往 HashMap 中 put 数据会发生什么? ConcurrentHashMap 是怎么保证线程安全的? 在分析 HashMap 源码时还遗留这两个问题,这次我们站在 Java 多线程 ...

  8. 并发编程(十六)——java7 深入并发包 ConcurrentHashMap 源码解析

    以前写过介绍HashMap的文章,文中提到过HashMap在put的时候,插入的元素超过了容量(由负载因子决定)的范围就会触发扩容操作,就是rehash,这个会重新将原数组的内容重新hash到新的扩容 ...

  9. 深入并发包 ConcurrentHashMap 源码解析

    以前写过介绍HashMap的文章,文中提到过HashMap在put的时候,插入的元素超过了容量(由负载因子决定)的范围就会触发扩容操作,就是rehash,这个会重新将原数组的内容重新hash到新的扩容 ...

  10. ConcurrentHashMap源码解析-Java7

    目录 一.ConcurrentHashMap的模型图 二.源码分析-类定义 2.1 极简ConcurrentHashMap定义 2.2 Segment内部类 2.3 HashEntry内部类 2.4 ...

随机推荐

  1. Oracle系列二 基本的SQL SELECT语句

    1.查询表中全部数据 示例: SELECT * FROM employees; 说明: SELECT   标识 选择哪些列. FROM      标识从哪个表中选择. *           选择全部 ...

  2. 深入理解Flink ---- 系统内部消息传递的exactly once语义

    At Most once,At Least once和Exactly once 在分布式系统中,组成系统的各个计算机是独立的.这些计算机有可能fail. 一个sender发送一条message到rec ...

  3. 查看已安装dpkg包的poinst安装文件

    /var/lib/dpkg/info |grep printburn(软件名称) /var/lib/dpkg/info 文件都在这个目录下面poinst, preinst,prerm等

  4. linux广播

    linux广播 // 发送端 #include <stdio.h> #include <unistd.h> #include <sys/types.h> #incl ...

  5. Postman:上传文件测试

    1.设置好接口地址与提交方法 2.设置header Content-Type:multipart/form-data 3.设置body 选择为:form-data key要和服务器端保持一致 选择好自 ...

  6. java:网络编程(UDP (DatagramSocket和DatagramPacket)正则表达式)

    java:网络编程(UDP (DatagramSocket和DatagramPacket)正则表达式) * TCP* 特点:面向连接,点对点的通信,效率较低,但安全可靠* UDP:用户数据报协议,类似 ...

  7. jmeter3.1连接数据库报错,ORA-00923: 未找到要求的 FROM 关键字

    Jmeter不仅仅可以测试接口,还可以对数据库进行压力测试.或者造数据. 准备工作:待测试数据库地址.用户名及其密码.Oracle驱动ojdbc14.jar 一.将ojdbc14.jar放至Jmete ...

  8. python实践项目九:操作文件-修改文件名

    描述:多个文件,文件名名包含美国风格的日期( MM-DD-YYYY),需要将它们改名为欧洲风格的日期( DD-MM-YYYY) 代码1:先创建100个文件名为美国风格日期的文件(文件路径为项目当前路径 ...

  9. [转帖]FastDFS图片服务器单机安装步骤

    FastDFS图片服务器单机安装步骤 https://www.cnblogs.com/yuesf/p/11847103.html 前面已经讲 一张图秒懂微服务的网络架构,通过此文章可以了解FastDF ...

  10. spring框架学习(二)——注解方式IOC/DI

    什么是注解 传统的Spring做法是使用.xml文件来对bean进行注入或者是配置aop.事物,这么做有两个缺点: 1.如果所有的内容都配置在.xml文件中,那么.xml文件将会十分庞大:如果按需求分 ...