一、LinkedTransferQueue简介

TransferQueue是一个继承了BlockingQueue的接口,并且增加若干新的方法。LinkedTransferQueue是TransferQueue接口的实现类,其定义为一个无界的队列,具有先进先出(FIFO)的特性。


有人这样评价它:"TransferQueue是是ConcurrentLinkedQueue、SynchronousQueue (公平模式下)、无界的LinkedBlockingQueues等的超集。"

LinkedTransferQueue实现了一个重要的接口TransferQueue,该接口含有下面几个重要方法:
     1. transfer(E e):若当前存在一个正在等待获取的消费者线程,即立刻移交之;否则,会插入当前元素e到队列尾部,并且等待进入阻塞状态,到有消费者线程取走该元素。
     2. tryTransfer(E e):若当前存在一个正在等待获取的消费者线程(使用take()或者poll()函数),使用该方法会即刻转移/传输对象元素e;若不存在,则返回false,并且不进入队列。这是一个不阻塞的操作。
     3. tryTransfer(E e, long timeout, TimeUnit unit):若当前存在一个正在等待获取的消费者线程,会立即传输给它;否则将插入元素e到队列尾部,并且等待被消费者线程获取消费掉;若在指定的时间内元素e无法被消费者线程获取,则返回false,同时该元素被移除。
     4. hasWaitingConsumer():判断是否存在消费者线程。
     5. getWaitingConsumerCount():获取所有等待获取元素的消费线程数量。  
     6.size():因为队列的异步特性,检测当前队列的元素个数需要逐一迭代,可能会得到一个不太准确的结果,尤其是在遍历时有可能队列发生更改。
     7.批量操作:类似于addAll,removeAll, retainAll, containsAll, equals, toArray等方法,API不能保证一定会立刻执行。因此,我们在使用过程中,不能有所期待,这是一个具有异步特性的队列。

LinkedTransferQueue采用的一种预占模式。意思就是消费者线程取元素时,如果队列为空,那就生成一个节点(节点元素为null)入队,然后消费者线程park住,后面生产者线程入队时发现有一个元素为null的节点,生产者线程就不入队了,直接就将元素填充到该节点,唤醒该节点上park住线程,被唤醒的消费者线程拿货走人。这就是预占的意思:有就拿货走人,没有就占个位置等着,等到或超时。

TransferQueue

LinkedTransferQueue实现了TransferQueue接口,这个接口继承了BlockingQueue。之前BlockingQueue是队列满时再入队会阻塞,而这个接口实现的功能是队列不满时也可以阻塞,实现一种有阻塞的入队功能。而这个接口在之前SynChronousQueue内种也有体现,作为内部抽象类Transferer,然后公平非公平2中实现,可以体会下。看下TransferQueue接口的代码:

public interface TransferQueue<E> extends BlockingQueue<E> {
/**
* 立即转交一个元素给消费者,如果此时队列没有消费者,那就false
*/
boolean tryTransfer(E e); /**
* 转交一个元素给消费者,如果此时队列没有消费者,那就阻塞
*/
void transfer(E e) throws InterruptedException; /**
* 带超时的tryTransfer
*/
boolean tryTransfer(E e, long timeout, TimeUnit unit)
throws InterruptedException; /**
* 是否有消费者等待接收数据,瞬时状态,不一定准
*/
boolean hasWaitingConsumer(); /**
* 返回还有多少个等待的消费者,跟上面那个一样,都是一种瞬时状态,不一定准
*/
int getWaitingConsumerCount();
}

其实transfer方法在SynchronousQueue的实现中就已存在了,只是没有做为API暴露出来。SynchronousQueue有一个特性:它本身不存在容量,只能进行线程之间的元素传送。SynchronousQueue在执行offer操作时,如果没有其他线程执行poll,则直接返回false.线程之间元素传送正是通过transfer方法完成的。

二、ArrayBlockingQueue源码分析

2.1、ArrayBlockingQueue的lock

这里没有锁,用的是CAS

// CAS methods for fields
private boolean casTail(Node cmp, Node val) {
return UNSAFE.compareAndSwapObject(this, tailOffset, cmp, val);
} private boolean casHead(Node cmp, Node val) {
return UNSAFE.compareAndSwapObject(this, headOffset, cmp, val);
} private boolean casSweepVotes(int cmp, int val) {
return UNSAFE.compareAndSwapInt(this, sweepVotesOffset, cmp, val);
}

还有node中的cas

        // CAS methods for fields
final boolean casNext(Node cmp, Node val) {
return UNSAFE.compareAndSwapObject(this, nextOffset, cmp, val);
} final boolean casItem(Object cmp, Object val) {
// assert cmp == null || cmp.getClass() != Node.class;
return UNSAFE.compareAndSwapObject(this, itemOffset, cmp, val);
}

2.2、数据结构(基于单链表)

先看下大概样子:

isData item next waiter

isData:表示该节点是存放数据还是获取数据; 
item:存放数据,isData为false时,该节点为null,为true时,匹配后,该节点会置为null; 
next:指向下一个节点; 
waiter:上面原理部分说的会park住消费者线程,线程就放在这里。

static final class Node {
final boolean isData; // 如果是请求时是为false
volatile Object item; // isData为true时,item存放数据,后面匹配后置为null
volatile Node next;
volatile Thread waiter; // 请求时的park住的消费者线程 // CAS methods for fields
final boolean casNext(Node cmp, Node val) {
return UNSAFE.compareAndSwapObject(this, nextOffset, cmp, val);
} final boolean casItem(Object cmp, Object val) {
// assert cmp == null || cmp.getClass() != Node.class;
return UNSAFE.compareAndSwapObject(this, itemOffset, cmp, val);
} /**
* Constructs a new node. Uses relaxed write because item can
* only be seen after publication via casNext.
*/
Node(Object item, boolean isData) {
UNSAFE.putObject(this, itemOffset, item); // relaxed write
this.isData = isData;
} /**
* 更新头节点后会将原来head节点的next指向自己for gc
*/
final void forgetNext() {
UNSAFE.putObject(this, nextOffset, this);
} /**
* 匹配过或节点被取消的时候会调用
*/
final void forgetContents() {
UNSAFE.putObject(this, itemOffset, this);
UNSAFE.putObject(this, waiterOffset, null);
} /**
* 节点是否匹配过了,如果匹配或者取消,item会有变化,也会调用上面那个forgetContents(),item会指向自己
*/
final boolean isMatched() {
Object x = item;
return (x == this) || ((x == null) == isData);
} /**
* 是否是一个未匹配的请求节点,如果是的话,那么isData为false,item为null,如果匹配,item会有值的
*/
final boolean isUnmatchedRequest() {
return !isData && item == null;
} /**
* 如给定节点类型不能挂在当前节点后返回true
* 满足节点类型不同且当前节点还未匹配,未匹配参考下上面的isMatched()方法
*/
final boolean cannotPrecede(boolean haveData) {
boolean d = isData;
Object x;
return d != haveData && (x = item) != this && (x != null) == d;
} /**
* 匹配一个数据节点 -- used by remove.
*/
final boolean tryMatchData() {
// assert isData;
Object x = item;
if (x != null && x != this && casItem(x, null)) {
LockSupport.unpark(waiter);
return true;
}
return false;
} private static final long serialVersionUID = -3375979862319811754L; // Unsafe mechanics
private static final sun.misc.Unsafe UNSAFE;
private static final long itemOffset;
private static final long nextOffset;
private static final long waiterOffset;
static {
try {
UNSAFE = sun.misc.Unsafe.getUnsafe();
Class k = Node.class;
itemOffset = UNSAFE.objectFieldOffset
(k.getDeclaredField("item"));
nextOffset = UNSAFE.objectFieldOffset
(k.getDeclaredField("next"));
waiterOffset = UNSAFE.objectFieldOffset
(k.getDeclaredField("waiter"));
} catch (Exception e) {
throw new Error(e);
}
}
}

2.2、成员变量

/** 判断多核 */
private static final boolean MP =
Runtime.getRuntime().availableProcessors() > 1; /**
* 作为第一个等待节点在阻塞park前自旋次数
*/
private static final int FRONT_SPINS = 1 << 7; /**
* 前驱节点正在处理,当前节点需要自旋的次数
*/
private static final int CHAINED_SPINS = FRONT_SPINS >>> 1; /**
* The maximum number of estimated removal failures (sweepVotes)
* to tolerate before sweeping through the queue unlinking
* cancelled nodes that were not unlinked upon initial
* removal. See above for explanation. The value must be at least
* two to avoid useless sweeps when removing trailing nodes.
*/
static final int SWEEP_THRESHOLD = 32; /** head of the queue; null until first enqueue */
transient volatile Node head; /** tail of the queue; null until first append */
private transient volatile Node tail; /** The number of apparent failures to unsplice removed nodes */
private transient volatile int sweepVotes; /*
* 调用xfer时候需要传入,区分不同处理
*/
private static final int NOW = 0; // for untimed poll, tryTransfer
private static final int ASYNC = 1; // for offer, put, add
private static final int SYNC = 2; // for transfer, take
private static final int TIMED = 3; // for timed poll, tryTransfer

2.4、构造函数

    public LinkedTransferQueue() {
} public LinkedTransferQueue(Collection<? extends E> c) {
this();
addAll(c);
}

2.5、入队

    public void put(E e) {
xfer(e, true, ASYNC, 0);
} public boolean offer(E e) {
xfer(e, true, ASYNC, 0);
return true;
} public boolean add(E e) {
xfer(e, true, ASYNC, 0);
return true;
} public boolean tryTransfer(E e) {
return xfer(e, true, NOW, 0) == null;
} public void transfer(E e) throws InterruptedException {
if (xfer(e, true, SYNC, 0) != null) {
Thread.interrupted(); // failure possible only due to interrupt
throw new InterruptedException();
}
}

xfer()方法:

/**
* 所有入队出队都调用该方法
*/
private E xfer(E e, boolean haveData, int how, long nanos) {
if (haveData && (e == null)) //put时非空校验
throw new NullPointerException();
Node s = null; // the node to append, if needed retry:
for (;;) { // restart on append race for (Node h = head, p = h; p != null;) { // 从head开始查找匹配的节点,p为null队列为空
boolean isData = p.isData;
Object item = p.item;
if (item != p && (item != null) == isData) { // 如果找到的节点没有匹配过
if (isData == haveData) // 节点类型跟待处理的类型一样,那肯定不行,例如找到的是一个data节点,匹配的肯定是一个false的reservation,你给一个data节点来匹配肯定不行
break;
if (p.casItem(item, e)) { // 可以匹配,那就casItem,2中情况,如果p的item原来是data,那么匹配后item为null,原来为null,现在有值了
for (Node q = p; q != h;) { //这里是帮助推进head节点,跟之前的SynchronousQueue类似效果
Node n = q.next; // update by 2 unless singleton
if (head == h && casHead(h, n == null ? q : n)) {
h.forgetNext();
break;
} // advance and retry
if ((h = head) == null ||
(q = h.next) == null || !q.isMatched())
break; // unless slack < 2
}
LockSupport.unpark(p.waiter); //匹配后将p上park的线程unpark,还是2种情况
return this.<E>cast(item); //返回item
}
}
Node n = p.next; //如果上面找到的节点已经匹配过了,那就往后再找
p = (p != n) ? n : (h = head); // 如果p的next指向p本身,说明p节点已经有其他线程处理过了,只能从head重新开始
} if (how != NOW) { // 如果上面没有找到匹配的,对不同how进来的处理不同,NOW为untimed poll, tryTransfer,不需要入队
if (s == null)
s = new Node(e, haveData);
Node pred = tryAppend(s, haveData); //append节点,返回前驱节点
if (pred == null)
continue retry; // 返回的前驱节点为null,那就是有race,被其他的抢了,那就continue 整个for
if (how != ASYNC) //这里就是SYNC = 2; transfer, take 和TIMED = 3; timed poll, tryTransfer需要阻塞等待匹配
return awaitMatch(s, pred, e, (how == TIMED), nanos);
}
return e; // Now 和 ASYNC = 1; for offer, put, add,无界队列返回就是
}
}

大体流程还算清晰,总结下: 
1. find match,主要是判断匹配条件,节点本身还未匹配,且isData类型和待匹配的不一样就行,匹配后就是casItem,unpark匹配节点waiter,返回就是; 
2. unmatched,如果没找到,那就根据不同方法入参how处理了,now的就直接返回,其他的3种先入队,然后ASYNC入队后返回,SYNC和TIMED阻塞等待匹配。

/** append一个节点到tail */
private Node tryAppend(Node s, boolean haveData) {
for (Node t = tail, p = t;;) { // 从tail节点开始
Node n, u; // temps for reads of next & tail
if (p == null && (p = head) == null) { //队列空
if (casHead(null, s)) //将节点设置成head
return s; // initialize
}
else if (p.cannotPrecede(haveData))
return null; // lost race vs opposite mode
else if ((n = p.next) != null) // not last; keep traversing
p = p != t && t != (u = tail) ? (t = u) : // stale tail
(p != n) ? n : null; // restart if off list
else if (!p.casNext(null, s))
p = p.next; // re-read on CAS failure
else {
if (p != t) { // update if slack now >= 2
while ((tail != t || !casTail(t, s)) &&
(t = tail) != null &&
(s = t.next) != null && // advance and retry
(s = s.next) != null && s != t);
}
return p;
}
}
} /** 等待匹配或者超时时间到,大体流程跟SynchronousQueue的那个awaitFulfill类似 */
private E awaitMatch(Node s, Node pred, E e, boolean timed, long nanos) {
long lastTime = timed ? System.nanoTime() : 0L;
Thread w = Thread.currentThread();
int spins = -1; // initialized after first item and cancel checks
ThreadLocalRandom randomYields = null; // bound if needed for (;;) {
Object item = s.item;
if (item != e) { // 匹配后,xfer会有个casItem操作,这里park被唤醒后检查是否有变化
// assert item != s;
s.forgetContents(); // avoid garbage
return this.<E>cast(item);
}
if ((w.isInterrupted() || (timed && nanos <= 0)) &&
s.casItem(e, s)) { // 超时了
unsplice(pred, s); //将节点unlink
return e;
} if (spins < 0) { // 自旋 establish spins at/near front
if ((spins = spinsFor(pred, s.isData)) > 0) //自旋次数
randomYields = ThreadLocalRandom.current();
}
else if (spins > 0) { // spin
--spins;
if (randomYields.nextInt(CHAINED_SPINS) == 0) //这里没太明白为什么要yield
Thread.yield(); // occasionally yield
}
else if (s.waiter == null) {
s.waiter = w; // park前肯定会调用一次
}
else if (timed) { //超时的park
long now = System.nanoTime();
if ((nanos -= now - lastTime) > 0)
LockSupport.parkNanos(this, nanos);
lastTime = now;
}
else {
LockSupport.park(this); //没有超时的park
}
} } /** 将节点s从队列断开 */
final void unsplice(Node pred, Node s) {
s.forgetContents(); // forget unneeded fields
/*
* See above for rationale. Briefly: if pred still points to
* s, try to unlink s. If s cannot be unlinked, because it is
* trailing node or pred might be unlinked, and neither pred
* nor s are head or offlist, add to sweepVotes, and if enough
* votes have accumulated, sweep.
*/
if (pred != null && pred != s && pred.next == s) {
Node n = s.next;
if (n == null ||
(n != s && pred.casNext(s, n) && pred.isMatched())) {
for (;;) { // check if at, or could be, head
Node h = head;
if (h == pred || h == s || h == null)
return; // at head or list empty
if (!h.isMatched())
break;
Node hn = h.next;
if (hn == null)
return; // now empty
if (hn != h && casHead(h, hn)) //推进head节点
h.forgetNext(); // advance head
}
if (pred.next != pred && s.next != s) { // recheck if offlist
for (;;) { // 通过sweepVotes变量控制到达足够次数后清除matched节点
int v = sweepVotes;
if (v < SWEEP_THRESHOLD) {
if (casSweepVotes(v, v + 1))
break;
}
else if (casSweepVotes(v, 0)) {
sweep();
break;
}
}
}
}
}
} /** 通过pre节点计算自旋次数 */
private static int spinsFor(Node pred, boolean haveData) {
if (MP && pred != null) { //必须多核
if (pred.isData != haveData) // phase change
return FRONT_SPINS + CHAINED_SPINS;
if (pred.isMatched()) // pre已经匹配了,那就可以少自旋一些 probably at front
return FRONT_SPINS;
if (pred.waiter == null) // pre节点在匹配中了,那可以再少自旋一点 pred apparently spinning
return CHAINED_SPINS;
}
return 0;
}

2.6、出队

    public E poll() {
return xfer(null, false, NOW, 0);
}

2.7、peek方法

返回队列头元素但不移除该元素,队列为空,返回null

    public E peek() {
return firstDataItem();
} private E firstDataItem() {
for (Node p = head; p != null; p = succ(p)) {
Object item = p.item;
if (p.isData) {
if (item != null && item != p)
return LinkedTransferQueue.<E>cast(item);
}
else if (item == null)
return null;
}
return null;
}

三、JDK或开源框架中使用

四、使用示例

========================================================================================================实例源码:生产者和消费者进程模拟

生产者源码(Producer)

package com.dxz.queue;

import java.util.Random;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TransferQueue; public class Producer implements Runnable {
private final TransferQueue<String> queue; public Producer(TransferQueue<String> queue) {
this.queue = queue;
} private String produce() {
return " your lucky number " + (new Random().nextInt(100));
} @Override
public void run() {
try {
while (true) {
if (queue.hasWaitingConsumer()) {
queue.transfer(produce());
}
TimeUnit.SECONDS.sleep(1);// 生产者睡眠一秒钟,这样可以看出程序的执行过程
}
} catch (InterruptedException e) {
}
}
}

消费者源码(Consumer):

package com.dxz.queue;

import java.util.concurrent.TransferQueue;

public class Consumer implements Runnable {
private final TransferQueue<String> queue; public Consumer(TransferQueue<String> queue) {
this.queue = queue;
} @Override
public void run() {
try {
System.out.println(" Consumer " + Thread.currentThread().getName() + queue.take());
} catch (InterruptedException e) {
}
}
}

测试类源码

package com.dxz.queue;

import java.util.concurrent.LinkedTransferQueue;
import java.util.concurrent.TransferQueue; public class LuckyNumberGenerator { public static void main(String[] args) {
TransferQueue<String> queue = new LinkedTransferQueue<String>();
Thread producer = new Thread(new Producer(queue));
producer.setDaemon(true); // 设置为守护进程使得线程执行结束后程序自动结束运行
producer.start();
for (int i = 0; i < 10; i++) {
Thread consumer = new Thread(new Consumer(queue));
consumer.setDaemon(true);
consumer.start();
try {
// 消费者进程休眠一秒钟,以便以便生产者获得CPU,从而生产产品
Thread.sleep(1000);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
}

运行结果(一种可能的结果):

 Consumer Thread-1 your lucky number 96
Consumer Thread-2 your lucky number 28
Consumer Thread-3 your lucky number 24
Consumer Thread-4 your lucky number 77
Consumer Thread-5 your lucky number 59
Consumer Thread-6 your lucky number 45
Consumer Thread-7 your lucky number 12
Consumer Thread-8 your lucky number 93
Consumer Thread-9 your lucky number 94

在Grizzly中,自带了LinkedTransferQueue,和JDK 7自带的LinkedTransferQueue有所不同,不同之处就是使用PaddedAtomicReference来提升并发性能,其实这是一种错误的编码技巧,没有意义!

AtomicReference和LinkedTransferQueue的本质是乐观锁,乐观锁的在激烈竞争的时候性能都很糟糕,乐观锁应使用在非激烈竞争的场景,为乐观锁优化激烈竞争下的性能,是错误的方向,因为如果需要激烈竞争,就应该使用悲观锁。

以下是一个JDK中内置乐观锁悲观锁的对照表:

乐观锁           ----->  悲观锁

AtomicInteger   ----->  Lock + volatile int

AtomicLong      ----->  Lock + volatile long

AtomicReference ----->  Lock + volatile

LinkedTransferQueue -----> LinkedBlockingQueue

在激烈竞争中,LinkedTransferQueue的性能,远远低于LinkedBlockingQueue,使用PaddedAtomicReference优化也是一样的。如果不激烈竞争,Padded-LinkedTransferQueue和LinkedTransferQueue相比也没有什么优势。

所以Padded-AtomicReference也是一个伪命题,如果激励竞争,为什么不使用Lock + volatile,如果非激烈竞争,使用PaddedAtomicReference对于AtomicReference又没有优势。所以使用Padded-AtomicReference是一个错误的编码技巧。

以下是测试代码,50个线程争用10个对象,这种激烈竞争下,使用LinkedTransferQueue比LinkedBlockingQueue大约慢10倍。

package com.alibaba.study;

import java.util.concurrent.*;

public class BlockingQueueTest {
public static void main(String[] args) throws Exception {
for (int i = 0; i < 3; ++i) {
loop();
}
} private static void loop() throws InterruptedException {
final BlockingQueue<Object> queue = new LinkedBlockingQueue<Object>();
// final BlockingQueue<Object> queue = new LinkedTransferQueue<Object>(); for (int i = 0; i < 10; ++i) {
queue.put(i);
} final int THREAD_COUNT = 50;
final CountDownLatch startLatch = new CountDownLatch(1);
final CountDownLatch endLatch = new CountDownLatch(THREAD_COUNT); for (int i = 0; i < THREAD_COUNT; ++i) {
Thread thread = new Thread() {
public void run() {
try {
startLatch.await();
} catch (InterruptedException e) { e.printStackTrace(); } try {
for (int i = 0; i < 1000 * 20; ++i) {
Object item = queue.take();
queue.put(item);
}
} catch (Exception e) {
e.printStackTrace();
} finally {
endLatch.countDown();
}
}
};
thread.start();
} long startMillis = System.currentTimeMillis();
startLatch.countDown();
endLatch.await();
long millis = System.currentTimeMillis() - startMillis;
System.out.println(queue.getClass().getName() + " : " + millis);
}
}

参考:

阻塞队列之二:LinkedTransferQueue的更多相关文章

  1. Java并发包源码学习系列:阻塞队列实现之LinkedTransferQueue源码解析

    目录 LinkedTransferQueue概述 TransferQueue 类图结构及重要字段 Node节点 前置:xfer方法的定义 队列操作三大类 插入元素put.add.offer 获取元素t ...

  2. Java并发编程原理与实战三十六:阻塞队列&消息队列

    一.阻塞队列 1.阻塞队列BlockingQueue ---->可以理解成生产者消费者的模式---->消费者要等待到生产者生产出来产品.---->而非阻塞队列ConcurrentLi ...

  3. Java并发包源码学习系列:阻塞队列实现之LinkedBlockingDeque源码解析

    目录 LinkedBlockingDeque概述 类图结构及重要字段 linkFirst linkLast unlinkFirst unlinkLast unlink 总结 参考阅读 系列传送门: J ...

  4. JAVA多线程提高十二:阻塞队列应用

    一.类相关属性 接口BlockingQueue<E>定义: public interface BlockingQueue<E> extends Queue<E> { ...

  5. Java并发编程(十二)-- 阻塞队列

    在介绍Java的阻塞队列之前,我们简单介绍一下队列. 队列 队列是一种数据结构.它有两个基本操作:在队列尾部加人一个元素,和从队列头部移除一个元素就是说,队列以一种先进先出的方式管理数据,如果你试图向 ...

  6. 转: 【Java并发编程】之二十一:并发新特性—阻塞队列和阻塞栈(含代码)

    转载请注明出处:http://blog.csdn.net/ns_code/article/details/17511147 阻塞队列 阻塞队列是Java5并发新特性中的内容,阻塞队列的接口是Java. ...

  7. Java并发框架——AQS阻塞队列管理(二)——自旋锁优化

    看Craig, Landin, and Hagersten发明的CLH锁如何优化同步带来的花销,其核心思想是:通过一定手段将所有线程对某一共享变量轮询竞争转化为一个线程队列且队列中的线程各自轮询自己的 ...

  8. Java中的阻塞队列-LinkedBlockingQueue(二)

    原文地址:http://benjaminwhx.com/2018/05/11/%E3%80%90%E7%BB%86%E8%B0%88Java%E5%B9%B6%E5%8F%91%E3%80%91%E8 ...

  9. JAVA多线程(二) 并发队列和阻塞队列

    github代码地址:https://github.com/showkawa/springBoot_2017/tree/master/spb-demo/spb-brian-query-service/ ...

随机推荐

  1. 使用aidl的项目结构以及小的注意事项

    在app的build.gradle里面添加: sourceSets{ main{ java.srcDirs = ['src/main/java','src/main/aidl'] } }

  2. 添加git 忽略文件

    在使用Git的过程中,我们喜欢有的文件比如日志,临时文件,编译的中间文件等不要提交到代码仓库,这时就要设置相应的忽略规则,来忽略这些文件的提交. Git 忽略文件提交的方法 有三种方法可以实现忽略Gi ...

  3. ClassPathXmlApplicationContext类

    org.springframework.context.support Class ClassPathXmlApplicationContext java.lang.Objectorg.springf ...

  4. HashMap resize方法的理解(一)

    对于oldTable中存储的为15.7.4.5.8.1,长度为8的一个数组中,存储位置如下 0 1 2 3 4 5 6 7 8 1 4 5 15 7 当扩容到一倍后,对于新的位置的选择通过e.hash ...

  5. 2017.10.23 Arduino Atmel EFM32低功耗监测

    mark:因为最近一直调试(维护)客户的EFM32,和其他系列的Atmel芯片.对atmel不熟悉,做点功课. 1. 自建Arduino 最小系统(原来树莓派都是Atmel的芯片) http://ww ...

  6. open()参数宏的意义 O_TRUNC

    C语言中一些基本函数 int _open(char *pathname,int access)为读或写打开一个文件, 按后按access来确定是读文件还是写文件,access值见下表 ┌──────┬ ...

  7. Content-type与json对象/字符串杂谈

    这几天在对接项目另一个乙方的下行接口,因为最近一直用php开发,所以当那边接口文档上规定了接口传参类型的 时候,瞬间搞混了,但是这次的出错也让我对http的数据传输有了新的认知. 1.http的数据传 ...

  8. python object类

    这个应为写得,写得蛮啰嗦的,建议耐心的人看看:http://www.cafepy.com/article/python_types_and_objects/python_types_and_objec ...

  9. U盘传送容量与格式问题

    问题 今天想将7.6G的文件拷到U盘里,提示u盘内存不足,其实内存为14+G. 解答 U盘格式对于U盘的传送大小有限制 下面为U盘三种不同格式的应用及优缺点 FAT32格式:为系统默认格式,具有极佳的 ...

  10. huawei机试题目

    1/*输入一个字符串,输出这个字符串中单词的字典排序*/ bool cmp(char* a,char* b){ ? true:false; } void sortWord(char* str) { v ...