concurrent.futures  —Launching parallel tasks    concurrent.futures模块同时提供了进程池和线程池,它是将来的使用趋势,同样我们之前学习的进程池Pool和threadpool模块也可以使用。

对进程池疑惑的可以参阅:32进程池与回调函数http://www.cnblogs.com/liluning/p/7445457.html

对threadpool模块疑惑的可以看我闲暇时写的一段代码:(因为本人也不了解这个模块,代码里写的也是自己想当然的,如有问题请自行查阅资料)

  1. #pip3 install threadpool #需下载
  2. import threadpool
  3. import requests
  4. import re
  5. import os
  6.  
  7. #爬取网页
  8. def get_page(url) :
  9. pattern = re.compile(r'<dd>.*?board-index.*?>(\d+)<.*?title="(.*?)".*?star.*?>(.*?)<.*?releasetime.*?>(.*?)<', re.S)
  10. response = requests.get(url)
  11. if response.status_code == 200 :
  12. #status_code请求的状态码200为正常
  13. return (response.text,pattern,url)
  14.  
  15. #信息处理
  16. def parse_page(info) :
  17. page_content,pattern,url = info
  18. print('<%s> parse [%s]'% (os.getpid(), url))
  19. res = re.findall(pattern,page_content)
  20. dic_l = []
  21. for item in res:
  22. dic = {
  23. 'index':item[0],
  24. 'title':item[1],
  25. 'actor':item[2].strip()[3:],
  26. 'time':item[3][5:]
  27. }
  28. dic_l.append(dic)
  29. print(dic)
  30. with open('movie_info.txt','a',encoding='utf-8') as f :
  31. for i in range(len(dic_l)) :
  32. parse_res = ('index:%s title:%s actor:%s time:%s\n' %(dic_l[i]['index'],dic_l[i]['title'],dic_l[i]['actor'],dic_l[i]['time']))
  33. f.write(parse_res)
  34.  
  35. if __name__ == '__main__':
  36. urls = [
  37. 'http://maoyan.com/board/7',
  38. 'http://maoyan.com/board/6',
  39. 'http://maoyan.com/board/1',
  40. 'http://maoyan.com/board/2',
  41. 'http://maoyan.com/board/4',
  42. ]
  43. t = threadpool.ThreadPool(4) #创建线程池
  44. for url in urls :
  45. res = threadpool.makeRequests(get_page,urls,parse_page(get_page(url)))
  46. #参数:执行函数,参数,回调函数
  47. [t.putRequest(req) for req in res]
  48. t.wait()

基于threadpool猫眼爬虫

一、concurrent.futures模块

1、官方文档

https://docs.python.org/dev/library/concurrent.futures.html#module-concurrent.futures

2、ProcessPoolExecutor(进程池)与ThreadPoolExecutor(线程池)

(进程池类与线程池类的方法使用等各方面基本相同)

1)导入

  1. from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor

2)创建

  1. p = ProcessPoolExecutor(num) #创建进程池
  2. t = ThreadPoolExecutor(num) #创建线程池

3)参数

  1. num:要创建的进程数或线程数,如果省略,进程数将默认使用cpu_count()的值,线程数将默认使用cpu_count()*5的值

4)主要方法

  1. submit(fn, *args, **kwargs):在一个池工作进程中执行执行fn(args kwargs)执行,并返回一个表示可调用的执行的Future对象
  2. map(func, *iterables, timeout=None, chunksize=1):
  3. shutdown(wait=True):执行结束释放资源

3、应用

1)进程池

  1. from concurrent.futures import ProcessPoolExecutor
  2. import os,time
  3. def task(n):
  4. print('%s is running' %os.getpid())
  5. time.sleep(2)
  6. return n**2
  7.  
  8. if __name__ == '__main__':
  9. p=ProcessPoolExecutor()
  10. l=[]
  11. start=time.time()
  12. for i in range(10):
  13. obj=p.submit(task,i)
  14. l.append(obj)
  15. p.shutdown()
  16. print('='*30)
  17. print([obj for obj in l])
  18. print([obj.result() for obj in l])
  19. print(time.time()-start)

2)线程池

  1. from concurrent.futures import ThreadPoolExecutor
  2. import threading
  3. import os,time
  4. def task(n):
  5. print('%s:%s is running' %(threading.currentThread().getName(),os.getpid()))
  6. time.sleep(2)
  7. return n**2
  8.  
  9. if __name__ == '__main__':
  10. p=ThreadPoolExecutor()
  11. l=[]
  12. start=time.time()
  13. for i in range(10):
  14. obj=p.submit(task,i)
  15. l.append(obj)
  16. p.shutdown()
  17. print('='*30)
  18. print([obj.result() for obj in l])
  19. print(time.time()-start)

3)同步执行

  1. from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
  2. import os,time,random
  3. def task(n):
  4. print('%s is running' %os.getpid())
  5. time.sleep(2)
  6. return n**2
  7.  
  8. if __name__ == '__main__':
  9. p=ProcessPoolExecutor()
  10. start=time.time()
  11. for i in range(10):
  12. res=p.submit(task,i).result()
  13. print(res)
  14. print('='*30)
  15. print(time.time()-start)

4、回调函数 

不懂回调函数的看本章节首部有链接

  1. from concurrent.futures import ThreadPoolExecutor
  2. import requests, os, time
  3. from threading import currentThread
  4. def get_page(url):
  5. print('%s:<%s> is getting [%s]' %(currentThread().getName(),os.getpid(),url))
  6. response=requests.get(url)
  7. time.sleep(2)
  8. return {'url':url,'text':response.text}
  9. def parse_page(res):
  10. res=res.result() #注意值
  11. print('%s:<%s> parse [%s]' %(currentThread().getName(),os.getpid(),res['url']))
  12. with open('db.txt','a') as f:
  13. parse_res='url:%s size:%s\n' %(res['url'],len(res['text']))
  14. f.write(parse_res)
  15. if __name__ == '__main__':
  16. p=ThreadPoolExecutor()
  17. urls = [
  18. 'https://www.baidu.com',
  19. 'http://www.openstack.org',
  20. 'https://www.python.org',
  21. 'http://www.sina.com.cn/'
  22. ]
  23.  
  24. for url in urls:
  25. p.submit(get_page, url).add_done_callback(parse_page)
  26. #add_done_callback()回调函数
  27. p.shutdown()
  28. print('主',os.getpid())

5、map方法

map有疑惑可以阅览:19、内置函数和匿名函数http://www.cnblogs.com/liluning/p/7280832.html

  1. from concurrent.futures import ProcessPoolExecutor
  2. import os,time
  3. def task(n):
  4. print('%s is running' %os.getpid())
  5. time.sleep(2)
  6. return n**2
  7.  
  8. if __name__ == '__main__':
  9. p=ProcessPoolExecutor()
  10. obj=p.map(task,range(10))
  11. p.shutdown()
  12. print('='*30)
  13. print(list(obj))

二、协程概念

1、定义

是单线程下的并发,又称微线程,纤程。英文名Coroutine。一句话说明什么是线程:协程是一种用户态的轻量级线程,即协程是由用户程序自己控制调度的。

2、注意

1)python的线程属于内核级别的,即由操作系统控制调度(如单线程遇到io或执行时间过长就会被迫交出cpu执行权限,切换其他线程运行)

2)单线程内开启协程,一旦遇到io,就会从应用程序级别(而非操作系统)控制切换,以此来提升效率(!!!非io操作的切换与效率无关)

3、优点

1) 协程的切换开销更小,属于程序级别的切换,操作系统完全感知不到,因而更加轻量级

2) 单线程内就可以实现并发的效果,最大限度地利用cpu

4、缺点

1) 协程的本质是单线程下,无法利用多核,可以是一个程序开启多个进程,每个进程内开启多个线程,每个线程内开启协程

2) 协程指的是单个线程,因而一旦协程出现阻塞,将会阻塞整个线程

5、总结

1)必须在只有一个单线程里实现并发

2)修改共享数据不需加锁

3)用户程序里自己保存多个控制流的上下文栈

附加:一个协程遇到IO操作自动切换到其它协程(如何实现检测IO,yield、greenlet都无法实现,就用到了gevent模块(select机制))


三、greenlet模块

如果我们在单个线程内有20个任务,要想实现在多个任务之间切换,使用yield生成器的方式过于麻烦(需要先得到初始化一次的生成器,然后再调用send。。。非常麻烦),而使用greenlet模块可以非常简单地实现这20个任务直接的切换

生成器:18、迭代器和生成器http://www.cnblogs.com/liluning/p/7274862.html

1、安装

  1. pip3 install greenlet

2、使用

  1. from greenlet import greenlet
  2.  
  3. def eat(name):
  4. print('%s eat 1' %name)
  5. g2.switch('egon')
  6. print('%s eat 2' %name)
  7. g2.switch()
  8. def play(name):
  9. print('%s play 1' %name)
  10. g1.switch()
  11. print('%s play 2' %name)
  12.  
  13. g1=greenlet(eat)
  14. g2=greenlet(play)
  15.  
  16. g1.switch('egon')#可以在第一次switch时传入参数,以后都不需要

3、单纯的切换(在没有io的情况下或者没有重复开辟内存空间的操作),反而会降低程序的执行速度

  1. #顺序执行
  2. import time
  3. def f1():
  4. res=1
  5. for i in range(100000000):
  6. res+=i
  7.  
  8. def f2():
  9. res=1
  10. for i in range(100000000):
  11. res*=i
  12.  
  13. start=time.time()
  14. f1()
  15. f2()
  16. stop=time.time()
  17. print('run time is %s' %(stop-start)) #10.985628366470337
  18.  
  19. #切换
  20. from greenlet import greenlet
  21. import time
  22. def f1():
  23. res=1
  24. for i in range(100000000):
  25. res+=i
  26. g2.switch()
  27.  
  28. def f2():
  29. res=1
  30. for i in range(100000000):
  31. res*=i
  32. g1.switch()
  33.  
  34. start=time.time()
  35. g1=greenlet(f1)
  36. g2=greenlet(f2)
  37. g1.switch()
  38. stop=time.time()
  39. print('run time is %s' %(stop-start)) # 52.763017892837524

单线程里的这20个任务的代码通常会既有计算操作又有阻塞操作,我们完全可以在执行任务1时遇到阻塞,就利用阻塞的时间去执行任务2。。。。如此,才能提高效率,这就用到了Gevent模块。


四、Gevent模块

1、安装

  1. pip3 install gevent

Gevent 是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度。

2、用法

  1. g1=gevent.spawn(func,1,,2,3,x=4,y=5)创建一个协程对象g1spawn括号内第一个参数是函数名,如eat,后面可以有多个参数,可以是位置实参或关键字实参,都是传给函数eat
  2.  
  3. g2=gevent.spawn(func2)
  4.  
  5. g1.join() #等待g1结束
  6.  
  7. g2.join() #等待g2结束
  8.  
  9. #或者上述两步合作一步:gevent.joinall([g1,g2])
  10.  
  11. g1.value#拿到func1的返回值

3、遇到IO阻塞时会自动切换任务

  1. import gevent
  2. def eat(name):
  3. print('%s eat 1' %name)
  4. gevent.sleep(2)
  5. print('%s eat 2' %name)
  6.  
  7. def play(name):
  8. print('%s play 1' %name)
  9. gevent.sleep(1)
  10. print('%s play 2' %name)
  11.  
  12. g1=gevent.spawn(eat,'egon')
  13. g2=gevent.spawn(play,name='egon')
  14. g1.join()
  15. g2.join()
  16. #或者gevent.joinall([g1,g2])
  17. print('主')

上例gevent.sleep(2)模拟的是gevent可以识别的io阻塞,而time.sleep(2)或其他的阻塞,gevent是不能直接识别的需要用下面一行代码,打补丁,就可以识别了from gevent import monkey;monkey.patch_all()必须放到被打补丁者的前面,如time,socket模块之前或者我们干脆记忆成:要用gevent,需要将from gevent import monkey;monkey.patch_all()放到文件的开头

  1. from gevent import monkey;monkey.patch_all()
  2.  
  3. import gevent
  4. import time
  5. def eat():
  6. print('eat food 1')
  7. time.sleep(2)
  8. print('eat food 2')
  9.  
  10. def play():
  11. print('play 1')
  12. time.sleep(1)
  13. print('play 2')
  14.  
  15. g1=gevent.spawn(eat)
  16. g2=gevent.spawn(play_phone)
  17. gevent.joinall([g1,g2])
  18. print('主')

4、Gevent的同步与异步

  1. from gevent import spawn,joinall,monkey;monkey.patch_all()
  2.  
  3. import time
  4. def task(pid):
  5. """
  6. Some non-deterministic task
  7. """
  8. time.sleep(0.5)
  9. print('Task %s done' % pid)
  10.  
  11. def synchronous():
  12. for i in range(10):
  13. task(i)
  14.  
  15. def asynchronous():
  16. g_l=[spawn(task,i) for i in range(10)]
  17. joinall(g_l)
  18.  
  19. if __name__ == '__main__':
  20. print('Synchronous:')
  21. synchronous()
  22.  
  23. print('Asynchronous:')
  24. asynchronous()
  25. #上面程序的重要部分是将task函数封装到Greenlet内部线程的gevent.spawn。 初始化的greenlet列表存放在数组threads中,此数组被传给gevent.joinall 函数,后者阻塞当前流程,并执行所有给定的greenlet。执行流程只会在 所有greenlet执行完后才会继续向下走。

5、Gevent实现爬虫

  1. from gevent import monkey;monkey.patch_all()
  2. import gevent
  3. import requests
  4. import time
  5.  
  6. def get_page(url):
  7. print('GET: %s' %url)
  8. response=requests.get(url)
  9. if response.status_code == 200:
  10. print('%d bytes received from %s' %(len(response.text),url))
  11.  
  12. start_time=time.time()
  13. g1=gevent.spawn(get_page, 'https://www.python.org/')
  14. g2=gevent.spawn(get_page, 'https://www.yahoo.com/')
  15. g3=gevent.spawn(get_page, 'https://github.com/')
  16. gevent.joinall([g1,g2,g3])
  17. stop_time=time.time()
  18. print('run time is %s' %(stop_time-start_time))

6、gevent实现单线程下的socket并发

通过gevent实现单线程下的socket并发(from gevent import monkey;monkey.patch_all()一定要放到导入socket模块之前,否则gevent无法识别socket的阻塞)

  1. from gevent import monkey;monkey.patch_all()
  2. from socket import *
  3. import gevent
  4.  
  5. #如果不想用money.patch_all()打补丁,可以用gevent自带的socket
  6. # from gevent import socket
  7. # s=socket.socket()
  8.  
  9. def server(server_ip,port):
  10. s=socket(AF_INET,SOCK_STREAM)
  11. s.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
  12. s.bind((server_ip,port))
  13. s.listen(5)
  14. while True:
  15. conn,addr=s.accept()
  16. gevent.spawn(talk,conn,addr)
  17.  
  18. def talk(conn,addr):
  19. try:
  20. while True:
  21. res=conn.recv(1024)
  22. print('client %s:%s msg: %s' %(addr[0],addr[1],res))
  23. conn.send(res.upper())
  24. except Exception as e:
  25. print(e)
  26. finally:
  27. conn.close()
  28.  
  29. if __name__ == '__main__':
  30. server('127.0.0.1',8080)

服务端

  1. from socket import *
  2.  
  3. client=socket(AF_INET,SOCK_STREAM)
  4. client.connect(('127.0.0.1',8080))
  5.  
  6. while True:
  7. msg=input('>>: ').strip()
  8. if not msg:continue
  9.  
  10. client.send(msg.encode('utf-8'))
  11. msg=client.recv(1024)
  12. print(msg.decode('utf-8'))

客户端

7、多协程发送多个客户端

  1. from gevent import monkey;monkey.patch_all()
  2. import gevent
  3. from socket import *
  4. def talk(conn,addr):
  5. while True:
  6. data=conn.recv(1024)
  7. print('%s:%s %s' %(addr[0],addr[1],data))
  8. conn.send(data.upper())
  9. conn.close()
  10.  
  11. def server(ip,port):
  12. s = socket(AF_INET, SOCK_STREAM)
  13. s.setsockopt(SOL_SOCKET, SO_REUSEADDR, 1)
  14. s.bind((ip,port))
  15. s.listen(5)
  16. while True:
  17. conn,addr=s.accept()
  18. gevent.spawn(talk,conn,addr)
  19. s.close()
  20.  
  21. if __name__ == '__main__':
  22. server('127.0.0.1', 8088)

服务端

  1. from multiprocessing import Process
  2. from socket import *
  3. def client(server_ip,server_port):
  4. client=socket(AF_INET,SOCK_STREAM)
  5. client.connect((server_ip,server_port))
  6. while True:
  7. client.send('hello'.encode('utf-8'))
  8. msg=client.recv(1024)
  9. print(msg.decode('utf-8'))
  10.  
  11. if __name__ == '__main__':
  12. for i in range(500):
  13. p=Process(target=client,args=('127.0.0.1',8088))
  14. p.start()

客户端

35、concurrent.futures模块与协程的更多相关文章

  1. 线程池、进程池(concurrent.futures模块)和协程

    一.线程池 1.concurrent.futures模块 介绍 concurrent.futures模块提供了高度封装的异步调用接口 ThreadPoolExecutor:线程池,提供异步调用 Pro ...

  2. 45、concurrent.futures模块与协程

    concurrent.futures  —Launching parallel tasks    concurrent.futures模块同时提供了进程池和线程池,它是将来的使用趋势,同样我们之前学习 ...

  3. concurrent.futures模块与协程

    concurrent.futures  —Launching parallel tasks    concurrent.futures模块同时提供了进程池和线程池,它是将来的使用趋势,同样我们之前学习 ...

  4. Python之网络编程之concurrent.futures模块

    需要注意一下不能无限的开进程,不能无限的开线程最常用的就是开进程池,开线程池.其中回调函数非常重要回调函数其实可以作为一种编程思想,谁好了谁就去掉 只要你用并发,就会有锁的问题,但是你不能一直去自己加 ...

  5. concurrent.futures模块(进程池/线程池)

    需要注意一下不能无限的开进程,不能无限的开线程最常用的就是开进程池,开线程池.其中回调函数非常重要回调函数其实可以作为一种编程思想,谁好了谁就去掉 只要你用并发,就会有锁的问题,但是你不能一直去自己加 ...

  6. 使用concurrent.futures模块中的线程池与进程池

    使用concurrent.futures模块中的线程池与进程池 线程池与进程池 以线程池举例,系统使用多线程方式运行时,会产生大量的线程创建与销毁,创建与销毁必定会带来一定的消耗,甚至导致系统资源的崩 ...

  7. Python之线程 3 - 信号量、事件、线程队列与concurrent.futures模块

    一 信号量 二 事件 三 条件Condition 四 定时器(了解) 五 线程队列 六 标准模块-concurrent.futures 基本方法 ThreadPoolExecutor的简单使用 Pro ...

  8. Python并发编程之线程池/进程池--concurrent.futures模块

    一.关于concurrent.futures模块 Python标准库为我们提供了threading和multiprocessing模块编写相应的多线程/多进程代码,但是当项目达到一定的规模,频繁创建/ ...

  9. 《转载》Python并发编程之线程池/进程池--concurrent.futures模块

    本文转载自Python并发编程之线程池/进程池--concurrent.futures模块 一.关于concurrent.futures模块 Python标准库为我们提供了threading和mult ...

随机推荐

  1. 部署Asp.net core & Nginx,通过nginx转发

    部署Asp.net core & Nginx,通过nginx转发 CentOS 7 x64 1.vs2017 建立Asp.net core项目,并发布到目录 2.通过FTP工具,将程序copy ...

  2. IDEA上创建 Maven SpringBoot+mybatisplus+thymeleaf 项目

    概述 在WEB领域,Java也是在不断的探索和改进,从开始的JSP--->Struts1--->Struts2+Spring--->Spring MVC--->SpringBo ...

  3. nginx 正则及rewrite常用规则实例

    一.正则表达式匹配,其中:* ~ 为区分大小写匹配* ~* 为不区分大小写匹配* !~和!~*分别为区分大小写不匹配及不区分大小写不匹配二.文件及目录匹配,其中:* -f和!-f用来判断是否存在文件* ...

  4. Nginx动静分离

    动静分离 Nginx动静分离是让动态网站里的动态网页根据一定规则把不变的资源和经常变的资源区分开来,动静资源做好了拆分以后,我们就可以根据静态资源的特点将其做缓存操作,这就是网站静态化处理的核心思路. ...

  5. Nginx动静分离架构&&HA-LB集群整合

    Nginx动静分离简单来说就将动态与静态资源分开,不能理解成只是单纯的把动态页面和静态页面物理分离,严格意义上说应该是动态请求跟静态请求分开,可以理解成使用Nginx处理静态页面,Tomcat,Res ...

  6. AtCoder Grand Contest 026 (AGC026) E - Synchronized Subsequence 贪心 动态规划

    原文链接https://www.cnblogs.com/zhouzhendong/p/AGC026E.html 题目传送门 - AGC026E 题意 给定一个长度为 $2n$ 的字符串,包含 $n$ ...

  7. java项目打包生成MD5文件

    之所以发出这篇博客,因为我前几天搞这个问题搞了几天,各种百度居然都没有找到相关的案例,虽然很简单的事件.可是百度博客上面居然都搜不到案例o(* ̄︶ ̄*)o觉得奇怪!!! 新总监来了,项目要上线,以前都 ...

  8. jstl select <c:if test下拉菜单不能被选中!

    关于select下拉菜单中出现中文时,因为编码的问题,不能用“==”来进行判断,必须要用“eq”,而且中文带上单引号: <select id="operateType" na ...

  9. Adobe Premiere Pro生成峰值文件假死

    一.正文 使用Adobe的Premiere Pro CC进行视频剪辑制作的时候,有的时候在右下角总会出现一个“自动生成峰值文件”的提示符,并跟随一个进度条: 大部分时候,这并不会引起什么问题.虽然我也 ...

  10. #6164. 「美团 CodeM 初赛 Round A」数列互质-莫队

    #6164. 「美团 CodeM 初赛 Round A」数列互质 思路 : 对这个题来言,莫队可以 n*根号n 离线处理出各个数出现个的次数 ,同时可以得到每个次数出现的次数 , 但是还要处理有多少 ...