本文由webfrogs译自objc.io,原文作者Daniel Eggert。转载请注明出处!

小引


本篇英文原文所发布的站点objc.io是一个专门为iOS和OS X开发者提供的深入讨论技术的平台,文章含金量很高。这个平台每月发布一次,每次都会有数篇文章针对同一个特殊的主题的不同方面来深入讨论。本月的主题是“并发编程”,本文翻译的正是其中的第4篇文章。

翻译此文是受到了破船的启发。他已经将objc.io本月主题的第二篇文章翻译完成了。
《OC中并发编程的相关API和面临的挑战(1)》 
《OC中并发编程的相关API和面临的挑战(2)》

首次翻译文章,水平有限,欢迎指正。

目录


1、从前。。。 
2、延后执行 
3、队列 
    3.1、标记队列 
    3.2、优先级 
4、孤立队列 
    4.1、资源保护 
    4.2、单一资源的多读单写 
    4.3、锁竞争 
    4.4、全都使用异步分发 
    4.5、如何写出好的异步API 
5、迭代执行 
6、 
    6.1、对现有API使用dispatch_group_t 
7、事件源 
    7.1、监视进程 
    7.2、监视文件 
    7.3、定时器 
    7.4、取消 
8、输入输出 
    8.1、GCD和缓冲区 
    8.2、读和写 
9、基准测试 
10、原子操作 
    10.1、计数器 
    10.2、比较和交换 
    10.3、原子队列 
    10.4、自旋锁

正文


这篇文章里,我们将会讨论一些iOS和OS X都可以使用的底层API。除了dispatch_once,我们一般不鼓励使用其中的任何一种技术。

但是我们想要揭示出表面之下深层次的一些可利用的方面。这些底层的API提供了大量的灵活性,但是伴随着灵活性而来的却是程序复杂度的提升和我们对代码的更多责任。在我们的文章《common background practices》中提到的高层次的API和模式能够让你专注于手头的任务并且免于大量的问题。并且通常来说,高层次的API会提供更好的性能,除非你能负担的起使用底层API带来的纠结和调试代码的时间和努力。

尽管如此,了解深层次下的软件堆栈工作原理还是有很有帮助的。我们希望这篇文章能够让你更好的了解这个平台,同时,让你更加感谢这些高层的API。

首先,我们将会分析大多数组成Grand Central Dispatch的部分。数年间,苹果公司持续添加功能并且改善它。现在苹果已经将其开源,这意味着它对其他平台也是可用的了。最后,我们将会看一下原子操作——另外的一种底层构建代码的集合。

也许,关于并发编程最好的书是M. Ben-Ari写的《Principles of Concurrent Programming》ISBN 0-13-701078-8。如果你正在做任何有关并发编程的事情,你需要读一下这本书。这本书已经写了超过30年了,但仍然是无法超越。简洁的写法,优秀的例子和练习,带领你构建并发编程中的基本代码块。这本书现在已经绝版了,但是仍然有一些零散的复印本。有一个新版书,名字叫《Principles of Concurrent and Distributed Programming》ISBN 0-321-31283-X,好像有很多相同的地方,不过我还没有读过。

1、从前。。。

也许GCD中使用最多并且被滥用的就是dispatch_once了。正确的用法看起来是这样的:

+ (UIColor *)boringColor;
{
static UIColor *color;
static dispatch_once_t onceToken;
dispatch_once(&onceToken, ^{
color = [UIColor colorWithRed:0.380f green:0.376f blue:0.376f alpha:1.000f];
});
return color;
}

这段代码仅仅只会运行一次。并且在连续调用这段代码的期间,检查操作是很高效的。你能使用它来初始化全局的数据比如单例。要注意到的是,使用dispatch_once_t会使得测试变得非常困难(单例和测试只能任取其一)。

要确保onceToken被声明为static,或者有全局作用域。任何其他的情况都会导致无法预知的行为。换句话说,不要把dispatch_once_t作为一个对象的成员变量,或者类似的情形。

退回到远古时代(其实也就是几年前),人们会使用pthread_once,因为dispatch_once_t更容易使用并且不易出错,所以你永远都不会使用到pthread_once了。

2、延后执行

另一个常见的朋友就是dispatch_after了。它使工作延后执行。它是很强大的,但是要注意:你很容易就陷入到一堆麻烦中。一般的使用是这样的:

- (void)foo
{
double delayInSeconds = 2.0;
dispatch_time_t popTime = dispatch_time(DISPATCH_TIME_NOW, (int64_t) (delayInSeconds * NSEC_PER_SEC));
dispatch_after(popTime, dispatch_get_main_queue(), ^(void){
[self bar];
});
}

咋一看,这段代码是极好的。但是这里也存在一些缺点。我们不能(直接)取消我们已经提交到dispatch_after的代码,它将会运行。

另外一个需要注意的事情就是,在人们使用dispatch_after去完成工作时,容易写出有时间bug的问题倾向的代码。举例来说,一些代码运行的太早并且很可能不知道为什么,这时你把它放到了dispatch_after中,现在,所有代码运行正常了。但是,几周以后,程序停止工作了,并且由于你没有明确指出代码是以什么样的次序运行的,调试代码就变成了一场噩梦。永远不要这样做,大多数的情况下,你最好把代码放到正确的位置。如果代码放到 -viewWillAppear 太早,那么或许 -viewDidAppear 就是正确的地方。

你将会为自己省去很多麻烦,通过在自己代码中建立直接调用(类似-viewDidAppear)而不是依赖于 dispatch_after

如果你需要一些事情在某个特定的时刻及时的运行,那么 dispatch_after 或许会是个好的选择。确保同时考虑了NSTimer,这个API虽然有点笨重,但是它允许你取消这个定时。

3、队列

GCD的一个最基本的部分就是队列。下面我们会给出一些如何使用它的例子。当使用队列的时候,给它们一个好的标签会帮自己不少忙。当调试的时候,这个标签会在Xcode(和lldb)中显示,这会帮助你了解应用程序当前是由谁负责的:

- (id)init;
{
self = [super init];
if (self != nil) {
NSString *label = [NSString stringWithFormat:@"%@.isolation.%p", [self class], self];
self.isolationQueue = dispatch_queue_create([label UTF8String], 0); label = [NSString stringWithFormat:@"%@.work.%p", [self class], self];
self.workQueue = dispatch_queue_create([label UTF8String], 0);
}
return self;
}

队列可以是并行也可以是串行的。默认情况下,他们是串行的,也就是说,任何给定的时间内,只能有一个单独的代码块运行。这就是孤立队列的运行方式。队列也可以是并行的,也就是同一时间内允许多代码块同时执行。

GCD队列的内部使用的是线程。GCD管理这些线程,并且使用GCD的时候,你不需要自己创建线程。重要的外在部分是GCD提供给你的用户API,一个不同的抽象层级的接口。当使用GCD来完成并发的工作时,你不必考虑线程方面的问题,代替的,只需考虑队列和工作项目(提交给队列的代码)。当然在这些之下的,依然是线程在工作。GCD的抽象层次为你通常的代码编写提供了更好的方式。

队列和工作项目的方式同时解决了一个普遍的会辐射出去的并发问题:如果我们直接使用线程,并且想要做一些并发的事情,我们可能将我们的工作分成100个小的工作项目,同时基于可以利用的CPU内核数量来创建线程,姑且是8线程。我们把这些工作项目送到这8个线程中。但是写这个函数的人同时也想要使用并发,因此当你调用这个函数的时候,也会创建8个线程。现在,你有了 8×8=64 个线程,尽管你只有8个CPU核心,也就是说任何时候只有12%的线程能够运行这时另外88%的线程什么事情都没做。使用GCD,你不会有这种问题,当操作系统关闭CPU核心以省电时,GCD甚至能够对应的调整线程数量。

GCD通过创建所谓的线程池来大致匹配CPU核心数量。要记住,线程的创建并不是无代价的。每个线程都需要占用内存和内核资源。这里也有一个问题:如果你提交了一个代码块给GCD,但是这个代码块阻塞了这个线程,那么这个线程在这段时间内就不是可用的,并且不能及时处理其他工作——它被阻塞了。为了确保工作项目在队列上一直是执行的,GCD不得不创建一个新的线程,并将新线程添加到线程池。

如果你的代码正在阻塞许多线程,这回带来很大的问题。最开始,线程消耗资源,更多的时,创建他们会变得代价高昂。这需要时间,而且在这段时间内,GCD无法以全速来运行工作项目。有许多能够导致线程阻塞的事情,但是最常见的时与I/O操作有关,也就是从文件或者网络中读写数据。正是因为这些原因,你不应该在GCD队列中以阻塞的方式来运行I/O操作。看一下下面的输入输出段落以了解如何以GCD良好运行的方式来进行I/O操作。

3.1、标记队列

你能够为你创建的任何一个队列设置标记。这会是很强大的,并且有助于调试。

为每一个类创建自己的队列而不是使用全局的队列被认为是一种好的方式。这种放肆下,你可以设置队列的名字,这让调试变得轻松许多——Xcode可以让你在Debug Navigator中看到所有的队列名字,或者你可以直接使用lldb。(lldb) thread list命令将会在控制台打印出所有队列的名字。一旦你使用大量的异步内容,这是很有价值的帮助。

使用私有队列同样强调封装性。这时你自己的队列,你要自己决定如何使用它。

默认情况下,一个新创建的队列转发到默认优先级的全局队列中。我们就将会多讨论一点有关优先级的东西。

你可以改变你队列转发到的队列——也就是说你可以设置自己队列的目标队列。以这种方式,你可以将不同队列链接在一起。你的类Foo的队列转发到类Bar的队列,而类Bar的队列又转发到全局队列。

当你使用孤立队列(之后我们也会讨论)的时候,这会很有用。Foo有一个孤立队列,并且转发到Bar的孤立队列,考虑到Bar的孤立队列所保护的资源,它会自动变为线程安全的。

如果你希望多段代码同时运行,那要确保你自己的队列是并发的。同时需要注意,如果一个队列的目标队列使串行的(也就是非并发),那么实际上这个队列也会转换为一个串行队列。

3.2、优先级

你通过设置目标为全局队列中的一个来改变自己队列的优先级,但是你应该克制这么做的冲动。

在大多数情况下,改变优先级不会使事情照你预想的方向运行。一些看起简单的事情实际上是一个非常复杂的问题。你很容易会碰到一个叫做优先级反转的情况。我们的文章《Concurrent Programming: APIs and Challenges》(已经由破船翻译了,详见点击此处)有更多关于这个问题的信息,这个问题几乎导致了NASA的探路者火星漫游器变成砖头。

在此基础上,使用DISPATCH_QUEUE_PRIORITY_BACKGROUND队列时,你需要格外小心。除非你理解了throttled I/O and background status as per setpriority(2)(抱歉,我也没理解,不知如何翻译了。)的意思,否则不要使用它。 不然,系统可能会以难以忍受的方式终止你的应用程序的运行。这可能集中在处理I/O操作上,这种操作以一种不与系统其他处理I/O操作的部分交互的方式运行。但是和优先级反转结合起来,这回变成一种危险的情况。

4、孤立队列

孤立队列是GCD队列使用中非常普遍的一种模式。这里有两个变种。

4.1、资源保护

多线程编程中,最常见的情形是你有一个资源,每次只有一个线程被允许访问这个资源。

我们在《有关并发编程的文章》(参考破船的译文)中讨论了资源在并发编程中意味着什么,其实并发编程中的资源通常就是一块内存或者一个对象,每次只有一个线程可以访问它。

举例来说,我们需要以多线程(或者多个队列)方式访问NSMutableDictionary。我们可能会照下面的代码来做:

- (void)setCount:(NSUInteger)count forKey:(NSString *)key
{
key = [key copy];
dispatch_async(self.isolationQueue, ^(){
if (count == 0) {
[self.counts removeObjectForKey:key];
} else {
self.counts[key] = @(count);
}
});
} - (NSUInteger)countForKey:(NSString *)key;
{
__block NSUInteger count;
dispatch_sync(self.isolationQueue, ^(){
NSNumber *n = self.counts[key];
count = [n unsignedIntegerValue];
});
return count;
}

通过以上代码,仅仅只有一个线程可以访问NSMutableDictionary的实例。

注意以下四点:

  1. 不要使用上面的代码,请先阅读多读单写锁竞争
  2. 我们使用async当存储一个值的时候,这很重要。我们不想,也不必阻塞当前线程去等待写操作完成。当读操作时,我们使用sync因为我们需要返回值。
  3. 根据函数的定义,-setCount:forKey:需要一个NSString值,我们是使用dispatch_async来传递该值。在代码执行之前,函数的调用者可以自由传递一个NSMutableString值并且在函数返回后可以修改它。因此我们必须对传入的字符串使用copy操作以确保函数能够正确地工作。如果传入的字符串不是可变的(也就是正常的NSString类型),调用copy基本上是个空操作。
  4. isolationQueue创建时,参数dispatch_queue_attr_t的值需要是DISPATCH_QUEUE_SERIAL(或者0)。

4.2、单一资源的多读单写

我们能够改善上面的那个例子。GCD有可以让多线程运行的并发队列。我们能够安全地使用多线程来从NSMutableDictionary中读取只要我们不同时修改它。当我们需要改变这个字典时,我们使用barrier来分发这个块代码。这样的块代码会在所有之前预定好的块代码完成之后执行,并且所有在它之后的块都会在它完成后才会执行。

我们以以下方式创建队列:

self.isolationQueue = dispatch_queue_create([label UTF8String], DISPATCH_QUEUE_CONCURRENT);

并且用以下代码来改变setter函数:

- (void)setCount:(NSUInteger)count forKey:(NSString *)key
{
key = [key copy];
dispatch_barrier_async(self.isolationQueue, ^(){
if (count == 0) {
[self.counts removeObjectForKey:key];
} else {
self.counts[key] = @(count);
}
});
}

当你使用并发队列时,要确保所有的barrier调用都是async(异步)的。如果你使用dispatch_barrier_sync,那么你很可能会使你自己(更确切的说是,你的代码)产生死锁。写操作需要barrier,并且可以是async的。

4.3、锁竞争

首先,这里有一句警告:上面这个例子中我们保护的资源是一个NSMutableDictionary,这段代码作为一个例子运行的不错。但是在真实的代码环境下,把孤立队列放到一个正确的复杂度层级下是很重要的。

如果你对NSMutableDictionary的访问操作变得非常频繁,你会碰到一个已知的叫做锁竞争的问题。锁竞争并不是只是在GCD和队列下才变得特殊,任何使用了锁机制的程序都会碰到同样的问题——只不过不同的锁机制会以不同的方式碰到。

所有对dispatch_asyncdispatch_sync等等的调用都需要完成某种形式的锁——以确保仅有一个线程或者特定的线程运行所给的块代码。GCD在一些范围可以避免使用锁而以时序安排来代替,但在最后,问题只是指有所变化。根本问题仍然存在:如果你有大量的线程在同一时间去竞争同一个锁,你就会看到性能的变化,性能会严重下降。

你应该从直接复杂层次中隔离开。当你发现了性能下降,这是表明代码中,存在明显的设计问题。这里有两个地方的开销需要你来平衡。第一个是独占临界区资源太久的开销,以至于别的线程都从进入临界区的操作中阻塞。第二个是太频繁进出临界区的开销。在GCD的世界里,第一种开销的情况就是一个块代码在孤立队列中运行,它可能潜在的阻塞了其他将要在这个孤立队列中运行的代码。第二种开销对应的就是调用dispatch_asyncdispatch_sync的开销。无论再怎么优化,这两个动作都不是无代价的。

不幸的是,不存在通用的标准来说明什么是正确的平衡,你需要自己评测和调整。

如果你看上面例子中的代码,我们的临界区代码仅仅做了很简单的事情。这可能也可能不是好的,依赖于它怎么被使用。

在你自己的代码中,要考虑自己是否在更高的层次保护了孤立队列。举个例子,类Foo有一个孤立队列并且它本身保护着自己访问NSMutableDictionary,有可能有一个用到了Foo的类Bar有一个孤立队列保护所有对类Foo的使用。换句话说,你需要把类Foo改变为不再是线程安全的(没有孤立队列),并在Bar中,使用一个孤立队列来确保同一时间只能有一个线程使用Foo

4.4、全都使用异步分发

我们在这稍稍转变以下话题。正如你在上面看到的,你可以分发一个块,一个工作单元的方式,即可以是同步的,也可以是异步的。我们在关于并发API和陷阱的文章(可以参考破船的译文,见本文开头)中讨论最多的就是死锁。在GCD中,以同步分发的方式非常容易出现这种情况。见下面的代码:

dispatch_queue_t queueA; // assume we have this
dispatch_sync(queueA, ^(){
dispatch_sync(queueA, ^(){
foo();
});
});

一旦我们进入到第二个dispatch_sync,就会发生死锁。我们不能分发到queueA,因为有人(当前线程)正在队列中并且永远不会离开。但是有更隐晦的死锁方式:

dispatch_queue_t queueA; // assume we have this
dispatch_queue_t queueB; // assume we have this dispatch_sync(queueA, ^(){
foo();
}); void foo(void)
{
dispatch_sync(queueB, ^(){
bar();
});
} void bar(void)
{
dispatch_sync(queueA, ^(){
baz();
});
}

单独的每次调用dispatch_sync()看起来都没有问题,但是一旦组合起来,就会发生死锁。

这是使用同步分发存在的固有问题,如果我们使用异步分发,比如:

dispatch_queue_t queueA; // assume we have this
dispatch_async(queueA, ^(){
dispatch_async(queueA, ^(){
foo();
});
});

一切运行正常。异步调用不会产生死锁。因此值得我们在任何可能的时候都使用异步分发。我们使用一个异步调用结果块的函数,来代替编写一个返回值(这必须要用同步)的方法或者函数。这种方式,我们会有更少发生死锁的可能性。

异步调用的副作用就是它们很难调试。当我们停止了调试器中的代码,再回溯并查看已经变得没有意义了。

要记住这些。死锁通常是最难处理的问题。

4.5、如何写出好的异步API

如果你正在给设计一个给别人(或者是给自己)使用的API,你需要记住几个好的实践。

正如我们刚刚提到的,你需要倾向于异步API。当你创建一个API,它会在你的控制之外以各种方式调用,如果你的代码能产生死锁,那么死锁就会发生。

如果你需要写的函数或者方法,那么让它们调用dispatch_async()。不要让你的函数调用者来这么做,调用者应该可以通过调用你提供的方法或者函数来做到这个。

如果你的方法或函数有一个返回值,通过一个回调的处理来异步传递返回值。这个API应该是这样的,你的方法或函数持有一个结果块代码和一个将结果传递到的目标队列。你函数的调用着不需要自己来将结果分发。这么做的原因很简单:几乎所有时间,调用者都需要在一个适当的队列中,这种方式的代码是很容易被阅读的。并且你的函数无论如何将会(必须)调用dispatch_async()来进行回调处理。

如果你写一个类,让你类的使用这设置一个将回调传递到的队列会是一个好的选择。你的代码可能像这样:

- (void)processImage:(UIImage *)image completionHandler:(void(^)(BOOL success))handler;
{
dispatch_async(self.isolationQueue, ^(void){
// do actual processing here
dispatch_async(self.resultQueue, ^(void){
handler(YES);
});
});
}

如果你以这种方式来写你的类,让类一起工作就会变得相当容易。如果类A使用了类B,它会把自己的孤立队列设置为B的回调队列。

5、迭代执行

如果你正在摆弄一些数字,并且手头上的问题可以拆分为小的同样的部分,那么dispatch_apply会很有用。

如果你的代码看起来是这样的:

for (size_t y = 0; y < height; ++y) {
for (size_t x = 0; x < width; ++x) {
// Do something with x and y here
}
}

小小的改动,你或许可以就可以让他运行的更快:

dispatch_apply(height, dispatch_get_global_queue(0, 0), ^(size_t y) {
for (size_t x = 0; x < width; x += 2) {
// Do something with x and y here
}
});

代码运行更好的程度取决于你在循环内部做的操作。

block中运行的工作一定要是非常重要的,否则最外层的那个dispatch_apply的定义就显得太繁琐了。

除非代码受到计算带宽的约束,每个工作单元读写所需要的合适的缓存大小所占用内存是无关紧要的,这对性能会带来显著的影响。受到临界区约束的代码可能不会运行良好。详细讨论这些问题已经超出了这篇文章的范围。使用dispatch_apply可能会对性能提升有所帮助,但是性能优化本身是个很复杂的主题。维基百科上有一篇关于Memory-bound function的文章。内存访问速度在L2,L3和主存上变化很大。当你的数据访问模式与缓存大小不匹配时,10倍的性能下降的情况并不少见。

6、组

很多时候,你发现需要将几个异步代码块组合起来去完成一个给定的任务。这些任务中甚至有些是可以并行的。现在,如果你想要在这些代码块都执行完成后运行一些代码,“组”可以完成这项任务。看这里的例子:

dispatch_group_t group = dispatch_group_create();

dispatch_queue_t queue = dispatch_get_global_queue(0, 0);
dispatch_group_async(group, queue, ^(){
// Do something that takes a while
[self doSomeFoo];
dispatch_group_async(group, dispatch_get_main_queue(), ^(){
self.foo = 42;
});
});
dispatch_group_async(group, ^(){
// Do something else that takes a while
[self doSomeBar];
dispatch_group_async(group, dispatch_get_main_queue(), ^(){
self.bar = 1;
});
}); // This block will run once everything above is done:
dispatch_group_notify(group, dispatch_get_main_queue(), ^(){
NSLog(@"foo: %d", self.foo);
NSLog(@"bar: %d", self.bar);
});

需要注意到的重要的事情是,所有的这些都是非阻塞的。我们从未让当前的线程一直等待直到别的任务做完。恰恰相反,我们只是简单的将多个代码块放入队列。由于代码不会阻塞,所以就不会产生死锁。

同时需要注意的是,在这个小的简单的例子中,我们是怎么在不同的队列间进切换的。

6.1、对现有API使用dispatch_group_t

一旦你将组作为你的工具箱中的一部分,你可能会想知道为什么大多数的异步API不把dispatch_group_t作为其的一个可选参数。这没有什么令人绝望的理由,仅仅是因为自己添加这个功能太简单了,但是你还是要小心以确保自己的代码是成对出现的。

举例来说,我们可以给Core Data-performBlock:函数添加上组的功能,那么API会变得像这个样子:

- (void)withGroup:(dispatch_group_t)group performBlock:(dispatch_block_t)block
{
if (group == NULL) {
[self performBlock:block];
} else {
dispatch_group_enter(group);
[self performBlock:^(){
block();
dispatch_group_leave(group);
}];
}
}

这样做允许我们使用dispatch_group_notify来运行一段代码,当Core Data上的一堆操作完成以后。

很明显,我们可以给NSURLConnection做同样的事情:

+ (void)withGroup:(dispatch_group_t)group
sendAsynchronousRequest:(NSURLRequest *)request
queue:(NSOperationQueue *)queue
completionHandler:(void (^)(NSURLResponse*, NSData*, NSError*))handler
{
if (group == NULL) {
[self sendAsynchronousRequest:request
queue:queue
completionHandler:handler];
} else {
dispatch_group_enter(group);
[self sendAsynchronousRequest:request
queue:queue
completionHandler:^(NSURLResponse *response, NSData *data, NSError *error){
handler(response, data, error);
dispatch_group_leave(group);
}];
}
}

为了能正常工作,你需要确保:

  • dispatch_group_enter()一定要在dispatch_group_leave()之前运行。
  • dispatch_group_enter()和dispatch_group_leave()通常是成对出现的(就算有错误产生时)。

7、事件源

GCD有一个较少人知道的特性:事件源dispatch_source_t。

正如大多数的GCD,它也是很底层的。当你需要用到它时,它会变得极其有用。它的一些使用是秘传招数,我们将会接触到一部分。是事件源大部分对iOS平台来说不是很有用,因为在iOS平台有诸多限制,你无法启动进程(因此就没有必要监视进程),也不能在你的app之外写数据(因此也就没有必要去监视文件)等等。

GCD事件源是以极其资源高效的方式实现的。

7.1、监视进程

如果一些进程正在运行而你想知道他们什么时候存在,GCD能够做到这些。你也可以使用GCD来检测进程什么时候分叉,也就是产生了子进程或者一个信号被传送给了进程(比如SIGTERM)。

NSRunningApplication *mail = [NSRunningApplication
runningApplicationsWithBundleIdentifier:@"com.apple.mail"];
if (mail == nil) {
return;
}
pid_t const pid = mail.processIdentifier;
self.source = dispatch_source_create(DISPATCH_SOURCE_TYPE_PROC, pid,
DISPATCH_PROC_EXIT, DISPATCH_TARGET_QUEUE_DEFAULT);
dispatch_source_set_event_handler(self.source, ^(){
NSLog(@"Mail quit.");
});
dispatch_resume(self.source);

Mail.app退出的时候,这个程序会打印出Mail quit.

7.2、监视文件

这种可能性是无穷尽的。你能直接监视一个文件的改变,并且当改变发生时,事件源的事件处理将会被调用。

你也可以使用它来监视文件夹,比如创建一个watch folder

NSURL *directoryURL; // assume this is set to a directory
int const fd = open([[directoryURL path] fileSystemRepresentation], O_EVTONLY);
if (fd < 0) {
char buffer[80];
strerror_r(errno, buffer, sizeof(buffer));
NSLog(@"Unable to open \"%@\": %s (%d)", [directoryURL path], buffer, errno);
return;
}
dispatch_source_t source = dispatch_source_create(DISPATCH_SOURCE_TYPE_VNODE, fd,
DISPATCH_VNODE_WRITE | DISPATCH_VNODE_DELETE, DISPATCH_TARGET_QUEUE_DEFAULT);
dispatch_source_set_event_handler(source, ^(){
unsigned long const data = dispatch_source_get_data(source);
if (data & DISPATCH_VNODE_WRITE) {
NSLog(@"The directory changed.");
}
if (data & DISPATCH_VNODE_DELETE) {
NSLog(@"The directory has been deleted.");
}
});
dispatch_source_set_cancel_handler(source, ^(){
close(fd);
});
self.source = source;
dispatch_resume(self.source);

你应该一直添加DISPATCH_VNODE_DELETE去检测文件或者文件夹是否已经被删除——然后就停止监听。

7.3、定时器

大多数情况下,对于定时事件,你会选择NSTimer。定时器的GCD版本是底层的,它会给你更多控制权——但要小心使用。

需要特别重点指出的是,为了让OS节省电量,需要为GCD的定时器接口指定一个低的误差值。如果你不必要的指定了一个过低的误差值,你将会浪费更多的电量。

这里我们设定了一个5秒的定时器,并允许有十分之一秒的误差:

dispatch_source_t source = dispatch_source_create(DISPATCH_SOURCE_TYPE_TIMER,
0, 0, DISPATCH_TARGET_QUEUE_DEFAULT);
dispatch_source_set_event_handler(source, ^(){
NSLog(@"Time flies.");
});
dispatch_time_t start
dispatch_source_set_timer(source, DISPATCH_TIME_NOW, 5ull * NSEC_PER_SEC,
100ull * NSEC_PER_MSEC);
self.source = source;
dispatch_resume(self.source);

7.4、取消

所有的事件源都允许你添加一个cancel handler。这对清理你为事件源创建的任何资源都是很有帮助的,比如关闭文件描述符。GCD保证在cancel handle调用前,所有的事件处理都已经完成调用。

看上面的监视文件例子中对dispatch_source_set_cancel_handler()的使用。

8、输入输出

写出能够在繁重的I/O处理情况下运行良好的代码是一件非常棘手的事情。GCD有一些能够帮上忙的地方。不会涉及太多的细节,我们只简单的分析下问题是什么,GCD是怎么处理的。

习惯上,当你从一个网络套接字中读取数据时,你要么做一个阻塞的读取操作,也就是让你个线程一直等待直到数据变得可用,或者是做反复的轮询操作。这两种方法都是很浪费资源并且无法度量。然而,kqueue解决了轮询的问题,通过当数据变得可用时传递一个事件,GCD也采用了同样的方法,但是更加优雅。当向套接字写数据时,同样的问题也存在,这时你要么做阻塞的写操作,要么等待套接字能够接收数据。

在处理I/O时,还有一个问题就是数据是以块的形式到达的。当从网络中读取数据时,依据MTU(最大传输单元)数据块典型的大小是在1.5K左右。这使得数据块内可以是任何内容。一旦数据到达,你通常只是对跨多个数据块的内容感兴趣。而且通常你会在一个大的缓冲区里将数据组合起来然后再进行处理。假设(人为例子)你收到了这样8个数据块:

0: HTTP/1.1 200 OK\r\nDate: Mon, 23 May 2005 22:38
1: :34 GMT\r\nServer: Apache/1.3.3.7 (Unix) (Red-H
2: at/Linux)\r\nLast-Modified: Wed, 08 Jan 2003 23
3: :11:55 GMT\r\nEtag: "3f80f-1b6-3e1cb03b"\r\nCon
4: tent-Type: text/html; charset=UTF-8\r\nContent-
5: Length: 131\r\nConnection: close\r\n\r\n<html>\r
6: \n<head>\r\n <title>An Example Page</title>\r\n
7: </head>\r\n<body>\r\n Hello World, this is a ve

如果你是在寻找HTTP的头部,将所有数据块组合成一个大的缓冲区并且从中查找\r\n\r\n是非常简单的。但是这样做,你会大量地复制这些数据。大量旧的C语言API存在的一个问题就是,缓冲区没有所有权的概念,所以函数不得不将数据再次拷贝到自己的缓冲区中——又一次的拷贝。拷贝数据操作看起来是无关紧要的,但是当你正在做大量的I/O操作的时候,你会在你的profiling tool(Instruments)中看到这些拷贝操作大量出现。即使你仅仅每个内存区域拷贝一次,你还是使用了两倍的存储带宽并且占用了两倍的内存缓存。

8.1、GCD和缓冲区

最直接了当的方法是使用数据缓冲区。GCD有一个dispatch_data_t类型,在某种程度上和Objective-C的NSData类型很相似。但是它能做别的事情,而且更通用。

注意,dispatch_data_t能够做retainrelease操作,并且dispatch_data_t拥有它持有的对象。

这看起来无关紧要,但是我们必须记住GCD只是一个普通的C API,并且不能使用Objective-C。 通常的做法是创建一个缓冲区,这个缓冲区要么是基于栈的,要么是malloc操作分配的内存区域,这些都没有所有权。

dispatch_data_t的一个独特的属性是它可以基于零碎的内存区域。这解决了我们刚提到的组合内存的问题。当你要将两个数据对象连接起来时:

dispatch_data_t a; // Assume this hold some valid data
dispatch_data_t b; // Assume this hold some valid data
dispatch_data_t c = dispatch_data_create_concat(a, b);

数据对象c并不会将a和b拷贝到一个单独的,更大的内存区域里去。相反,它只是简单地持有a和b。你可以使用dispatch_data_apply来遍历对象c持有的内存区域:

dispatch_data_apply(c, ^(dispatch_data_t region, size_t offset, const void *buffer, size_t size) {
fprintf(stderr, "region with offset %zu, size %zu\n", offset, size);
return true;
});

类似的,你可以使用dispatch_data_create_subrange来创建一个不做任何拷贝操作的子区域。

8.2、读和写

在GCD的内核中,Dispatch I/O就是所谓的通道。调度I/O通道提供了一种从文件描述符中读写的不同的方式。创建这样一个通道最基本的方式就是调用:

dispatch_io_t dispatch_io_create(dispatch_io_type_t type, dispatch_fd_t fd,
dispatch_queue_t queue, void (^cleanup_handler)(int error));

这将返回一个持有文件描述符的创建好的通道。在你通过它创建了通道之后,你不准以任何方式修改这个文件描述符。

有两种从根本上不同类型的通道:流和随机存取。如果你打来了硬盘上的一个文件,你可以使用它来创建一个随机存取的通道(因为这样的文件描述符是可寻址的)。如果你打开了一个套接字,你可以创建一个流通道。

如果你想要为一个文件创建一个通道,你最好使用需要一个路径参数的dispatch_io_create_with_path,并且让GCD来打开这个文件。这时有利的,因为GCD能够延迟打开这个文件,以限制同一时间同时打开的文件数量。

类似通常的read(2),write(2)和close(2)的操作,GCD提供了dispatch_io_readdispatch_io_writedispatch_io_close。无论何时数据被读完或者写完,读写操作通过调用一个回调块来结束。这些都是以非阻塞,异步I/O的形式高效实现的。

在这你得不到所有的细节,但是这里会提供一个创建TCP服务端的例子:

首先我们创建一个监听套接字,并且设置一个接收连接的事件源:

_isolation = dispatch_queue_create([[self description] UTF8String], 0);
_nativeSocket = socket(PF_INET6, SOCK_STREAM, IPPROTO_TCP);
struct sockaddr_in sin = {};
sin.sin_len = sizeof(sin);
sin.sin_family = AF_INET6;
sin.sin_port = htons(port);
sin.sin_addr.s_addr= INADDR_ANY;
int err = bind(result.nativeSocket, (struct sockaddr *) &sin, sizeof(sin));
NSCAssert(0 <= err, @""); _eventSource = dispatch_source_create(DISPATCH_SOURCE_TYPE_READ, _nativeSocket, 0, _isolation);
dispatch_source_set_event_handler(result.eventSource, ^{
acceptConnection(_nativeSocket);
});

当接受了连接,我们创建一个I/O通道:

typedef union socketAddress {
struct sockaddr sa;
struct sockaddr_in sin;
struct sockaddr_in6 sin6;
} socketAddressUnion; socketAddressUnion rsa; // remote socket address
socklen_t len = sizeof(rsa);
int native = accept(nativeSocket, &rsa.sa, &len);
if (native == -1) {
// Error. Ignore.
return nil;
} _remoteAddress = rsa;
_isolation = dispatch_queue_create([[self description] UTF8String], 0);
_channel = dispatch_io_create(DISPATCH_IO_STREAM, native, _isolation, ^(int error) {
NSLog(@"An error occured while listening on socket: %d", error);
}); //dispatch_io_set_high_water(_channel, 8 * 1024);
dispatch_io_set_low_water(_channel, 1);
dispatch_io_set_interval(_channel, NSEC_PER_MSEC * 10, DISPATCH_IO_STRICT_INTERVAL); socketAddressUnion lsa; // remote socket address
socklen_t len = sizeof(rsa);
getsockname(native, &lsa.sa, &len);
_localAddress = lsa;

如果我们想要设置SO_KEEPALIVE(如果我们使用了HTTP的keep-alive等级),我们需要在调用dispatch_io_create前这么做。

创建好I/O通道后,我们可以设置读取处理程序:

dispatch_io_read(_channel, 0, SIZE_MAX, _isolation, ^(bool done, dispatch_data_t data, int error){
if (data != NULL) {
if (_data == NULL) {
_data = data;
} else {
_data = dispatch_data_create_concat(_data, data);
}
[self processData];
}
});

如果所有你想做的只是读取或者写入一个文件,GCD提供了两个方便的包装器:dispatch_readdispatch_write。你需要传递给dispatch_read一个文件路径和一个在所有数据块读取完后调用的代码块。类似的,dispatch_write需要一个文件路径和一个被写入的dispatch_data_t对象。

9、基准测试

在GCD的一个不起眼的角落,你会发现一个适合优化代码的灵巧小工具:

uint64_t dispatch_benchmark(size_t count, void (^block)(void));

把这个声明放到你的代码中,你就能够测量给定的代码块执行的平均的纳秒数。例子如下:

size_t const objectCount = 1000;
uint64_t n = dispatch_benchmark(10000, ^{
@autoreleasepool {
id obj = @42;
NSMutableArray *array = [NSMutableArray array];
for (size_t i = 0; i < objectCount; ++i) {
[array addObject:obj];
}
}
});
NSLog(@"-[NSMutableArray addObject:] : %llu ns", n);

在我的机器上输出了:

-[NSMutableArray addObject:] : 31803 ns

也就是说添加1000个对象到NSMutableArray总共消耗了31803纳秒,或者说平均一个对象消耗32纳秒。

正如dispatch_benchmark帮助界面指出的,测量性能并非如看起来那样不重要。尤其是当比较并发代码和非并发代码时,你需要注意你的硬件上运行的特定计算带宽和内存带宽。不同的机器会很不一样。如果代码的性能与访问临界区有关,那么我们上面提到的锁竞争问题就会有所影响。

不要把它放到发布代码中,事实上,这是无意义的,它是私有API。它只是在调试和性能分析上起作用。

访问帮助界面:

curl "http://opensource.apple.com/source/libdispatch/libdispatch-84.5/man/dispatch_benchmark.3?txt"
| /usr/bin/groffer --tty -T utf8

10、原子操作

头文件libkern/OSAtomic.h里有许多强大的函数,专门用来底层多线程编程。尽管它是内核头文件的一部分,它也能够在内核之外来帮助编程。

这些函数都是很底层的,并且你需要知道一些额外的事情。就算你已经知道了,你还可能会发现一两件你不能做,或者不易做的事情。当你正在为高性能代码工作或者正在实现无锁的和无等待的算法工作时,这些函数会吸引你。

这些函数在atomic(3)的帮助页里全部有概述——运行man 3 atomic命令以得到完整的文档。你会发现里面讨论到了内存屏障。查看维基百科中关于内存屏障的文章。如果你不能确定,那么你很可能需要它。

10.1、计数器

OSAtomicIncrementOSAtomicDecrement有一个很长的函数列表允许你以原子操作的方式去增加和减少一个整数值,这不必使用锁(或者队列)同时也是线程安全的。如果你需要让一个全局的计数器值增加,而这个计数器为了统计目的而由多个线程操作,使用原子操作是很有帮助的。如果你要做的仅仅是增加一个全局计数器,那么无屏障版本的OSAtomicIncrement是很合适的,并且当没有锁竞争时,调用它们的代价很小。

类似的,OSAtomicOrOSAtomicAndOSAtomicXor的函数能用来进行逻辑运算,而OSAtomicTest可以用来设置和清除位。

10.2、比较和交换

OSAtomicCompareAndSwap能用来做无锁的懒初始化,如下:

void * sharedBuffer(void)
{
static void * buffer;
if (buffer == NULL) {
void * newBuffer = calloc(1, 1024);
if (!OSAtomicCompareAndSwapPtrBarrier(NULL, newBuffer, &buffer)) {
free(newBuffer);
}
}
return buffer;
}

如果没有缓冲区,我们会创建一个然后自动将其写到buffer中如果buffer为NULL。在极稀少的情况下,其他人因为多线程也同时设置了buffer,我们简单的将其释放掉。因为比较和交换方法是原子的,所以它是一个线程安全的方式去懒初始化值。NULL的检测和设置buffer是以原子方式完成的。

明显的,使用dispatch_once()我们也可以完成类似的事情。

10.3、原子队列

OSAtomicEnqueue()OSAtomicDequeue()可以让你实现一个LIFO队列,以线程安全,无锁的方式。对有潜在精确要求的代码来说,这会是强大的构建方式。

还有OSAtomicFifoEnqueue()OSAtomicFifoDequeue()是为了操作FIFO队列,但这些只有在头文件中才有文档——使用他们的时候要小心。

10.4、自旋锁

最后,OSAtomic.h头文件定义了使用自旋锁的函数:OSSpinLock。再次的,维基百科有深入的有关自旋锁的信息。使用命令man 3 spinlock查看帮助页的spinlock(3)。当没有锁竞争时使用自旋锁代价很小。

在合适的情况下,使用自旋锁对性能优化是很有帮助的。一如既往:先测量,然后优化。不要做乐观的优化。

下面是OSSpinLock的一个例子:

@interface MyTableViewCell : UITableViewCell

@property (readonly, nonatomic, copy) NSDictionary *amountAttributes;

@end

@implementation MyTableViewCell
{
NSDictionary *_amountAttributes;
} - (NSDictionary *)amountAttributes;
{
if (_amountAttributes == nil) {
static __weak NSDictionary *cachedAttributes = nil;
static OSSpinLock lock = OS_SPINLOCK_INIT;
OSSpinLockLock(&lock);
_amountAttributes = cachedAttributes;
if (_amountAttributes == nil) {
NSMutableDictionary *attributes = [[self subtitleAttributes] mutableCopy];
attributes[NSFontAttributeName] = [UIFont fontWithName:@"ComicSans" size:36];
attributes[NSParagraphStyleAttributeName] = [NSParagraphStyle defaultParagraphStyle];
_amountAttributes = [attributes copy];
cachedAttributes = _amountAttributes;
}
OSSpinLockUnlock(&lock);
}
return _amountAttributes;
}

在上面的例子中,或许用不着这么麻烦,但它演示了一种理念。我们使用了ARC的__weak来确保一旦MyTableViewCell所有的实例都不存在,amountAttributes会调用dealloc。因此在所有的实例中,我们可以持有字典的一个单独实例。

这段代码运行良好的原因是我们不太可能访问到函数内部的部分。这是很深奥的——不要在你的App中使用它,除非是你真正需要。

【转】Objc的底层并发API的更多相关文章

  1. Objc的底层并发API

    本文由webfrogs译自objc.io,原文作者Daniel Eggert.转载请注明出处! 小引 本篇英文原文所发布的站点objc.io是一个专门为iOS和OS X开发者提供的深入讨论技术的平台, ...

  2. Objc的底层并发API(转)

    本文由webfrogs译自objc.io,原文作者Daniel Eggert.   小引 本篇英文原文所发布的站点objc.io是一个专门为iOS和OS X开发者提供的深入讨论技术的平台,文章含金量很 ...

  3. IOS 多线程04-GCD详解 底层并发 API

    注:本人是翻译过来,并且加上本人的一点见解. 前言 想要揭示出表面之下深层次的一些可利用的方面.这些底层的 API 提供了大量的灵活性,随之而来的是大量的复杂度和更多的责任.在我们的文章常见的后台实践 ...

  4. 底层并发APIs_源自objc.io

    本文由webfrogs译自objc.io,原文作者Daniel Eggert.   小引 本篇英文原文所发布的站点objc.io是一个专门为iOS和OS X开发者提供的深入讨论技术的平台,文章含金量很 ...

  5. 如何精确地测量java对象的大小-底层instrument API

    转载: 如何精确地测量java对象的大小-底层instrument API 关于java对象的大小测量,网上有很多例子,大多数是申请一个对象后开始做GC,后对比前后的大小,不过这样,虽然说这样测量对象 ...

  6. 驰骋工作流引擎-底层开发API 说明文档

    驰骋工作引擎-底层开发API 登录与门户API 首先要进行代码集成与组织机构的集成 其次在自己的系统登录界面,登录成功后要执行ccbpm的框架登录. 所谓的登录就是调用ccbpm的登录接口,如左边的代 ...

  7. Effective Modern C++:07并发API

    C++11的志伟功勋之一,就是将并发融入了语言和库中,因此在C++的历史上,程序员可以首次跨越所有平台撰写具有标准行为的多线程程序. 35:优先选用基于任务而非基于线程的程序设计 如果需要以异步的方式 ...

  8. java并发api总结

    开发十年,就只剩下这套架构体系了! >>>   1.java.util.concurrent包 1.1 Executors Executor:接口,仅有一个方法为execute(Ru ...

  9. 【转】Objective-C并发编程:API和挑战

    并发指的是在同一时间运行多个任务.在单核CPU的情况下,它通过分时的方式实现,如果有多个CPU可用,则是真正意义上的多个任务“并行”执行了. OS X和iOS提供了多个API支持并发编程.每个API都 ...

随机推荐

  1. Visual Studio Code开发TypeScript

    [Tool] 使用Visual Studio Code开发TypeScript   [Tool] 使用Visual Studio Code开发TypeScript 注意 依照本篇操作步骤实作,就可以在 ...

  2. WP 前台或后台显示ShellToast

    原文:WP 前台或后台显示ShellToast using Microsoft.Phone.Shell; ShellToast toast = new ShellToast(); toast.Titl ...

  3. 如何学习ACM

    我想对未来的同学有几句话要说: 1 我们几乎没有noi上来的队员,大家只能依靠后期的更加刻苦的努力. 2 我们没有专业的班级或者机制形成职业ACM队伍,所以大家只能尽早的投入进来,用尽一切课余时间去训 ...

  4. 经典算法题每日演练——第十四题 Prim算法

    原文:经典算法题每日演练--第十四题 Prim算法 图论在数据结构中是非常有趣而复杂的,作为web码农的我,在实际开发中一直没有找到它的使用场景,不像树那样的频繁使用,不过还是准备 仔细的把图论全部过 ...

  5. HDU 4303 Hourai Jeweled 树dp 所有权利和航点 dfs2次要

    意甲冠军: long long ans = 0; for(int i = 1; i <= n; i++) for(int j = i+1; j <= n; j++) ans += F(i, ...

  6. C++拷贝构造函数具体解释

    一. 什么是拷贝构造函数 首先对于普通类型的对象来说,它们之间的复制是非常easy的,比如: int a = 100; int b = a; 而类对象与普通对象不同,类对象内部结构一般较为复杂,存在各 ...

  7. ArcGIS网络分析之Silverlight客户端最近设施点分析(四)

    原文:ArcGIS网络分析之Silverlight客户端最近设施点分析(四) 在上一篇中说了如何实现最近路径分析,本篇将讨论如何实现最近设施点分析. 最近设施点分析实际上和路径分析有些相识,实现的过程 ...

  8. HDU 4006 The kth great number AVL解

    提供动态更新数据.第实时QK大量的值什么? 使用AVL统计数据结构做,比较先进的数据结构的内容. 不知道给出的数据为准值是否有反复.下面的程序是因为我能够处理重复数据出现的情况下,. 了repeat的 ...

  9. CSS3+HTML5特效7 - 特殊的 Loading 效果

    效果如下     实现原理: 利用CSS3的@keyframes规则创建动画效果: 使用CSS3的animation效果完成滚动切换. 代码说明: 样式表中@-webkit-keyframes及@ke ...

  10. Android 4.4 沉浸式透明状态栏与导航栏

    Android 系统自4.2 開始 UI 上就没多大改变,4.4 也仅仅是添加了透明状态栏与导航栏的功能,如图 那么如今我就来给大家解说下怎样使用这个新特性,让你的 app 尾随潮流,当然假设你不在乎 ...