并发的意义

为了高效处理网络I/O,需要使用并发,因为网络有很高的延迟,所以为了不浪费CPU周期去等待,最好在收到网络响应之前做些其他的事。

在I/O密集型应用中,如果代码写得正确,那么不管是用哪种并发策略(使用线程或asyncio包),吞吐量都比依序执行的代码高很多。

  并发是指一次处理多件事。并行是指一次做多件事。一个关于结构,一个关于执行。

并行才是我们通常认为的那个同时做多件事情,而并发则是在线程这个模型下产生的概念。

并发表示同时发生了多件事情,通过时间片切换,哪怕只有单一的核心,也可以实现“同时做多件事情”这个效果。

根据底层是否有多处理器,并发与并行是可以等效的,这并不是两个互斥的概念。

举个我们开发中会遇到的例子,我们说资源请求并发数达到了1万。这里的意思是有1万个请求同时过来了。但是这里很明显不可能真正的同时去处理这1万个请求的吧!

如果这台机器的处理器有4个核心,不考虑超线程,那么我们认为同时会有4个线程在跑。

也就是说,并发访问数是1万,而底层真实的并行处理的请求数是4。

如果并发数小一些只有4的话,又或者你的机器牛逼有1万个核心,那并发在这里和并行一个效果。

也就是说,并发可以是虚拟的同时执行,也可以是真的同时执行。而并行的意思是真的同时执行。

结论是:并行是我们物理时空观下的同时执行,而并发则是操作系统用线程这个模型抽象之后站在线程的视角上看到的“同时”执行。

Future

一、初识future

concurrent.futures 模块主要特色是:ThreadPoolEXecutorProcessPoolExecutor,这两个类实现的接口能分别在不同的线程或进程中执行可调用的对象。

这两个类在内部维护着一个工作线程或进程池,以及要执行的任务队列。

from concurrent import futures

MAX_WORKERS = 20

def download_many():

    workers = min(MAX_WORKERS,len(url_list))
with futures.ThreadPoolExecutor(workers) as executor:
res = executor.map(download_one,sorted(url_list))
return len(list(res))

(1)设定工作的线程数量,使用允许的最大值与要处理的数量之间的较小的那个值,以免创建过于的线程。

(2)download_one函数在多个线程中并发调用,map方法返回一个生成器,因此可以迭代,获取各个函数返回的值。

future是concurrent.futures模块和asyncio包的重要组件。

从python3.4开始标准库中有两个名为Future的类:concurrent.futures.Future和asyncio.Future

这两个类的作用相同:两个Future类的实例都表示可能完成或者尚未完成的延迟计算。与Twisted中的Deferred类、Tornado框架中的Future类的功能类似

future封装待完成的操作,可以放入队列,完成的状态可以查询,得到结果(或抛出异常)后可以获取结果(或异常)。

▲ 通常情况下自己不应该创建future,只能由并发框架(concurrent.future或asyncio)实例化。

future表示终将发生的事情,而确定某件事会发生的唯一方式就是执行的时间已经排定。

只有排定把某件事交给concurrent.futures.Executor子类处理时,才会创建concurrent.futures.Future实例。

Executor.submit(fn, *args, **kwargs)

Executor.submit() 方法的参数是一个可调用的对象,调用这个方法后会为传入的可调用对象排期,返回一个future。

▲ 不是阻塞的,而是立即返回。能够使用 done()方法判断该任务是否结束。

使用cancel()方法可以取消提交的任务,如果任务已经在线程池中运行了,就取消不了。

客户端代码不应该改变future的状态,并发框架在future表示的延迟计算结束后会改变future状态。而我们无法控制计算何时结束。

Executor.shutdown(wait=True)

释放系统资源,在Executor.submit()或 Executor.map()等异步操作后调用。使用with语句可以避免显式调用此方法

shutdown(wait=True) 相当于进程池的 pool.close()+pool.join() 操作

wait=True,等待池内所有任务执行完毕回收完资源后才继续,--------》默认

wait=False,立即返回,并不会等待池内的任务执行完毕

但不管wait参数为何值,整个程序都会等到所有任务执行完毕

Executor.add_done_callback(fn)

future都有 .add_done_callback(fn) 方法,这个方法只有一个参数,类型是可调用的对象,future运行结束后会调用指定的可调用对象。

fn接收一个future参数,通过obj.result(),获得执行后结果。

Executor.result()

.result()方法,在future运行结束后调用的话,返回可调用对象的结果,或者重新抛出执行可调用的对象时抛出的异常。

如果没有运行结束,concurrent会阻塞调用方直到有结果可返回。

concurrent.futures.as_completed()

使用concurrent.futures.as_completed函数,这个函数的参数是一个future列表 / future为key的字典,返回值是一个生成器,

在没有任务完成的时候,会阻塞,在有某个任务完成的时候,会yield这个任务future,就能执行for循环下面的语句,然后继续阻塞,循环到所有的任务结束。

从结果也可以看出,先完成的任务会先通知主线程。

Executor.map(func, *iterables, timeout=None

Executor.map() 返回值是一个迭代器,迭代器的__next__方法调用各个future的result()方法,得到各个future的结果而不是future本身。

*iterables:可迭代对象,如列表等。每一次func执行,都会从iterables中取参数。

timeout:设置每次异步操作的超时时间

修改Executor.map调用,换成两个for循环,一个用于创建并排定future,另一个用于获取future的结果

def download_many():

    with futures.ThreadPoolExecutor(max_workers=3) as executor:

        to_do = []
for cc in sorted(url_list):
future = executor.submit(download_one,cc)
to_do.append(future) result = []
for future in futures.as_completed(to_do):
res = future.result()
result.append(res)

executor.submit() 方法排定可调用对象的执行时间,然后返回一个future,表示这个待执行的操作。

示例中的future.result()方法绝不会阻塞,因为future由as_completed函数产出。

▲ 同时在 future.result()处使用 try模块捕获异常

二、阻塞型I/O和GIL

Cpython解释器本身就不是线程安全的,因此有全局解释器锁(GIL),一次只允许使用一个线程执行Python字节码。因此,一个Python进程通常不能同时使用多个CPU核心。

标准库中所有执行阻塞型I/O操作的函数,在等待操作系统返回结果时都会释放GIL。I/O密集型Python程序能从中受益。

一个Python线程等待网络响应时,阻塞型I/O函数会释放GIL,再运行一个线程。

三、ProcessPoolExecutor

  ProcessPoolExecutor 和 ThreadPoolExecutor类都实现了通用的Executor接口,因此使用concurrent.futures模块能特别轻松地把基于线程的方案转成基于进程的方案。

  ThreadPoolExecutor.__init__方法需要max_workers参数,指定线程池中线程的数量。(10、100或1000个线程)

  ProcessPoolExecutor类中这个参数是可选的,而且大多数情况下不使用,默认值是os.cpu_count()函数返回的CPU数量。四核CPU,因此限制只能有4个并发。而线程池版本可以有上百个。

  ProcessPoolExecutor类把工作分配给多个Python进程处理,因此,如果需要做CPU密集型处理,使用这个模块能绕开GIL,利用所有的CPU核心。

  其原理是一个ProcessPoolExecutor创建了N个独立的Python解释器,N是系统上面可用的CPU核数。

  使用方法和ThreadPoolExecutor方法一样

from time import sleep,strftime
from concurrent import futures def display(*args):
print(strftime('[%H:%M:%S]'),end=' ')
print(*args) def loiter(n):
msg = '{}loiter({}): doing nothing for {}s'
display(msg.format('\t'*n,n,n))
sleep(n*2)
msg = '{}loiter({}): done.'
display(msg.format('\t'*n,n))
return n *10 def main():
display('Script starting...')
executor = futures.ThreadPoolExecutor(max_workers=3)
results = executor.map(loiter,range(5))
display('result:',results)
display('Waiting for individual results:') for i,result in enumerate(results):
display('result {}:{}'.format(i,result)) main()

Executor.map函数返回结果的顺序与调用时开始的顺序一致。

如果第一个调用生成结果用时10秒,而其他调用只用1秒,代码会阻塞10秒,获取map方法返回的生成器产出的第一个结果。

在此之后,获取后续结果不会阻塞,因为后续的调用已经结束。

如果需要不管提交的顺序,只要有结果就获取,使用 Executor.submit() 和 Executor.as_completed() 函数。

四、显示下载进度条

  TQDM包特别易于使用。

from tqdm import tqdm
import time for i in tqdm(range(1000)):
time.sleep(.01)

  tqdm函数能处理任何可迭代的对象,生成一个迭代器。

  使用这个迭代器时,显示进度条和完成全部迭代预计的剩余时间。

  为了计算剩余时间,tqdm函数要获取一个能使用len函数确定大小的可迭代对象,或者在第二个参数中指定预期的元素数量。

  如:iterable = tqdm.tqdm(iterable, total=len(xx_list))

Asyncio

一、使用asyncio包处理并发

  这个包主要使用事件循环的协程实现并发。

import asyncio
import itertools
import sys @asyncio.coroutine
def spin(msg): write,flush = sys.stdout.write,sys.stdout.flush for char in itertools.cycle('|/-\\'):
status = char + ' ' +msg
write(status)
flush()
write('\x08'*len(status))
try:
yield from asyncio.sleep(.1)
except asyncio.CancelledError:
break
write(' '*len(status) + '\x08'*len(status)) @asyncio.coroutine
def slow_function():
yield from asyncio.sleep(3)
return 42 @asyncio.coroutine
def supervisor():
spinner = asyncio.async(spin('thinking'))
print('spinner object:',spinner)
result = yield from slow_function()
spinner.cancel()
return result def main():
loop = asyncio.get_event_loop()
result = loop.run_until_complete(supervisor())
loop.close()
print('Answer:',result)

  (1)打算交给asyncio处理的协程要使用@asyncio.coroutine装饰。

  (2)使用yield from asyncio.sleep 代替 time.sleep,这样休眠不会阻塞事件循环。

  (3)asyncio.async(...)函数排定spin协程的运行时间,使用一个Task对象包装spin协程,并立即返回。

  (4)获取事件循环的引用,驱动supervisor协程。

▲ 如果写成需要在一段时间内什么也不做,应该使用yield from asyncio.sleep(DELAY)

asyncio.Task对象差不多与threading.Thread对象等效,Task对象像是实现协作式多任务的库(如:gevent)中的绿色线程(green thread)

获取的Task对象已经排定了运行时间,Thread实例必须调用start方法,明确告知让他运行。

没有API能从外部终止线程,因为线程随时可能被中断,导致系统处于无效状态。

如果想要终止任务,使用Task.cancel()实例方法,抛出CancelledError异常。协程可以在暂停的yield处捕获这个异常,处理终止请求。

二、asyncio.Future 与 concurrent.futures.Future

  asyncio.Future 与 concurrent.futures.Future类的接口基本一致,不过实现方式不同,不可以互换。

  future只是调度执行某物的结果。

  在asyncio包中,BaseEventLoop.create_task(...)方法接收一个协程,排定它的运行时间,然后返回一个asyncio.Task实例,也是asyncio.Future类的实例,因为Task是Future的子类,用于包装协程。

  asyncio.Future类的目的是与yield from一起使用,所以通常不需要使用以下方法。

  (1)无需调用my_future.add_done_callback(...),因为可以直接把想在future运行结束后执行的操作放在协程中yield from my_future表达式的后面,

  (2)无需调用my_future.result(),因为yield from从future中产出的值就是结果(result = yield from my_future)。

  asyncio.Future对象由yield from驱动,而不是靠调用这些方法驱动。

  获取Task对象有两种方式:

  (1)asyncio.async(coro_or_future, *, loop=None),

    第一个参数如果是Future或者Task对象,返回。如果是协程,那么async函数会调用loop.create_task(...)方法创建Task对象。

  (2)BaseEventLoop.create_task(coro),

    排定协程的执行时间,返回一个asyncio.Task对象。

三、asyncio和aiohttp

  asyncio包只直接支持TCP和UDP。如果想使用HTTP或其他协议,那么要借助第三方包。

import asyncio
import aiohttp @asyncio.coroutine
def get_flag(url):
resp = yield from aiohttp.request('GET',url)
data = yield from resp.read()
return data @asyncio.coroutine
def download_one(url):
data = yield from get_flag(url)
return url def download_many():
loop = asyncio.get_event_loop()
to_do = [download_one(url) for url in sorted(url_list)]
wait_coro = asyncio.wait(to_do)
res,_ = loop.run_until_complete(wait_coro)
loop.close() return len(res)

阻塞的操作通过协程实现,客户代码通过yield from把职责委托给协程,以便异步运行协程。

构建协程对象列表。

asyncio.wait是一个协程,等传给它的所有协程运行完毕后结束。wait函数默认行为。

loop.run_until_complete(wait_coro)执行事件循环。直到wait_coro运行结束;时间循环运行的过程中,这个脚本会在这里阻塞。

asyncio.wait函数运行结束后返回一个元组,第一个元素是一系列结束的future,第二个元素是一系列未结束的future。

(如果设置了timeout和return_when 就会返回未结束的future)

▲ 为了使用asyncio包,必须把每个访问网络的函数改成异步版,使用yield from处理网络操作,这样才能把控制权交还给事件循环。

总结:

  (1)我们编写的协程链条始终是通过把最外层委派生成器传给asyncio包API中的某个函数(如loop.run_until_complete(...))驱动。

    由asyncio包实现next(...)或.send(...)

  (2)我们编写的协程链条始终通过yield from把职责委托给asyncio包中的某个协程函数或协程方法(yield from asyncio.sleep(...)),或者其他库中实现高层协议的协程(yield from aiohttp.request(...)),

    也就是说最内层的子生成器是库中真正执行I/O操作的函数,而不是我们自己编写的函数。

四、asyncio与进度条结合

  由loop.run_until_complete方法驱动,全部协程运行完毕后,这个函数会返回所有下载结果。

  可是,为了更新进度条,各个协程运行结束后就要立即获取结果。

import asyncio
import aiohttp
from tqdm import tqdm
import collections @asyncio.coroutine
def get_flag(url):
resp = yield from aiohttp.request('GET',url)
data = yield from resp.read()
return data @asyncio.coroutine
def download_one(url,semaphore): try:
with (yield from semaphore):
data = yield from get_flag(url)
except Exception as exc:
''''''
else:
save_data(data)
return url @asyncio.coroutine
def download_coro(url_list,concur_req): counter = collections.Counter()
semaphore = asyncio.Semaphore(concur_req) to_do = [download_one(url,semaphore) for url in url_list]
to_do_iter = asyncio.as_completed(to_do) to_do_iter = tqdm(to_do_iter,total=len(url_list))
for future in to_do_iter: try:
res = yield from future
except Exception as exc:
''''''
counter[status] += 1
return counter def download_many():
loop = asyncio.get_event_loop()
coro = download_coro(url_list,concur_req)
res = loop.run_until_complete(coro)
loop.close() return res

  (1)使用某种限流机制,防止向服务器发起太多并发请求,使用ThreadPoolExecutor类时可以通过设置线程池数量;

  (2)asyncio.Semaphore对象维护这一个内部计数器,把semaphore当做上下文管理器使用。保证任何时候都不会有超过X个协程启动。

  (3)asyncio.as_completed(xxx),获取一个迭代器,这个迭代器会在future运行结束后返回future。

  (4)迭代运行结束的future,获取asyncio.Future对象的结果,使用yield from,而不是future.result()方法。

  (5)不能使用字典映射方式,因为asyncio.as_completed函数返回的future与传给as_completed函数的future可能不同。在asyncio包内部,我们提供的future会被替换成生成相同结果的future。

五、使用Executor对象,防止阻塞事件循环

  上述示例中,save_data(...),会执行硬盘I/O操作,而这应该异步执行。

  在线程版本中,save_data(...)会阻塞download_one函数的线程,但是阻塞的只是众多工作线程中的一个。

  阻塞型I/O调用在背后会释放GIL,因此另一个线程可以继续。

  但是在asyncio中,save_data(...)函数阻塞了客户代码与asyncio事件循环共用的唯一线程,因此保存文件时,整个应用程序都会冻结。

  

  asyncio的事件循环在背后维护者一个ThreadPoolExecutor对象,我们可以调用run_in_executor方法,把可调用对象发给它执行。

@asyncio.coroutine
def download_one(url,semaphore): try:
with (yield from semaphore):
data = yield from get_flag(url)
except Exception as exc:
''''''
else:
loop = asyncio.get_event_loop()
loop.run_in_executor(None, save_data, data)
return url

  (1)获取事件循环对象的引用。

  (2)run_in_executor方法的第一个参数是Executor实例;如果设为None,使用事件循环的默认ThreadPoolExecutor实例。

  (3)余下参数是可调用的对象,以及可调用对象的位置参数。

每次下载发起多次请求:

@asyncio.coroutine
def get_flag(url):
resp = yield from aiohttp.request('GET',url)
data = yield from resp.read()
json = yield from resp.json()
return data @asyncio.coroutine
def download_one(url,semaphore): try:
with (yield from semaphore):
flag = yield from get_flag(url)
with (yield from semaphore):
country = yield from get_country(url)
except Exception as exc:
''''''
return url

六、使用asyncio包编写服务器

使用Future、asyncio处理并发的更多相关文章

  1. 6)协程三( asyncio处理并发)

    一:使用 asyncio处理并发 介绍 asyncio 包,这个包使用事件循环驱动的协程实现并发.这是 Python 中最大也是最具雄心壮志的库之一. 二:示例 1)单任务协程处理和普通任务比较 #普 ...

  2. Python并发编程之学习异步IO框架:asyncio 中篇(十)

    大家好,并发编程 进入第十章.好了,今天的内容其实还挺多的,我准备了三天,到今天才整理完毕.希望大家看完,有所收获的,能给小明一个赞.这就是对小明最大的鼓励了.为了更好地衔接这一节,我们先来回顾一下上 ...

  3. asyncio协程与并发

    并发编程 Python的并发实现有三种方法. 多线程 多进程 协程(生成器) 基本概念 串行:同时只能执行单个任务 并行:同时执行多个任务 在Python中,虽然严格说来多线程与协程都是串行的,但其效 ...

  4. python:Asyncio模块处理“事件循环”中的异步进程和并发执行任务

    python模块Asynico提供了管理事件.携程.任务和线程的功能已经编写并发代码的同步原语. 组成模块: 事件循,Asyncio 每个进程都有一个事件循环. 协程,子例程概念的泛化,可以暂停任务, ...

  5. asyncio与gevent并发性能测试

    asyncio与gevent并发性能测试 在对网站进行扫描或者暴破时需要对网站进行高并发操作,然而requests+concurrent多线程性能上不太理想,了解到python用得比较多的并发库有as ...

  6. asyncio:python3未来并发编程主流、充满野心的模块

    介绍 asyncio是Python在3.5中正式引入的标准库,这是Python未来的并发编程的主流,非常重要的一个模块.有一个web框架叫sanic,就是基于asyncio,语法和flask类似,使用 ...

  7. 二、深入asyncio协程(任务对象,协程调用原理,协程并发)

      由于才开始写博客,之前都是写笔记自己看,所以可能会存在表述不清,过于啰嗦等各种各样的问题,有什么疑问或者批评欢迎在评论区留言. 如果你初次接触协程,请先阅读上一篇文章初识asyncio协程对asy ...

  8. python 并发专题(十三):asyncio (二) 协程中的多任务

    . 本文目录# 协程中的并发 协程中的嵌套 协程中的状态 gather与wait . 协程中的并发# 协程的并发,和线程一样.举个例子来说,就好像 一个人同时吃三个馒头,咬了第一个馒头一口,就得等这口 ...

  9. Java 并发编程:Callable和Future

    项目中经常有些任务需要异步(提交到线程池中)去执行,而主线程往往需要知道异步执行产生的结果,这时我们要怎么做呢?用runnable是无法实现的,我们需要用callable实现. import java ...

随机推荐

  1. 编译+远程调试spark

    一 编译  以spark2.4 hadoop2.8.4为例 1,spark 项目根pom文件修改 pom文件新增 <profile> <id>hadoop-2.8</id ...

  2. 如何使用RedisTemplate访问Redis数据结构之字符串操作

    Redis 数据结构简介 Redis 可以存储键与5种不同数据结构类型之间的映射,这5种数据结构类型分别为String(字符串).List(列表).Set(集合).Hash(散列)和 Zset(有序集 ...

  3. [Vue]vue-router的push和replace的区别

    1.this.$router.push() 描述:跳转到不同的url,但这个方法会向history栈添加一个记录,点击后退会返回到上一个页面. 2.this.$router.replace() 描述: ...

  4. BaseHandler的封装, 处理handler中的内存泄漏

    package de.bvb.study.common; /** * 用于规范 Message.what此属性,避免出现魔法数字 */ public final class What { public ...

  5. QT QListWidget去掉滚动条

    1.去掉滚动条 设置样式  包含背景色等更改 setStyleSheet("QListWidget{color:gray;font-size:12px;background:#FAFAFD; ...

  6. 用Python获取黄石市近7天天气预报

    首先,我们打开中国天气网,找到黄石市近7天天气的网页.http://www.weather.com.cn/weather/101200601.shtml 然后按F12开始分析网页结构,找到各个标签,并 ...

  7. js中数组方法及分类

    数组的方法有很多,这里简单整理下常用的21种方法,并且根据它们的作用分了类,便于记忆和理解. 根据是否改变原数组,可以分为两大类,两大类又根据不同功能分为几个小类 一.操作使原数组改变   1.数组的 ...

  8. MUI 跨域请求web api

    由于刚接触MUI框架,所以在跨域问题上花了一点时间.希望我的方式能帮你少走点弯路(大神就直接过里吧)! 首先,遇到这个问题,各种百度.其中说法最多的是将mui,js文件里的 setHeader('X- ...

  9. 非常规的command not found

    在linux环境下会遇到各种command not found的情况,大部分是可以直接安装同名的包可以解决,但有一些不是,这里做一下汇总,总结各种命令或者工具的安装情况: 非同名安装: 包名 Debi ...

  10. Delphi 重载方法与重定义方法