python并发编程之多进程(三):共享数据&进程池
一,共享数据
展望未来,基于消息传递的并发编程是大势所趋
即便是使用线程,推荐做法也是将程序设计为大量独立的线程集合
通过消息队列交换数据。这样极大地减少了对使用锁定和其他同步手段的需求,
还可以扩展到分布式系统中
进程间通信应该尽量避免使用本节所讲的共享数据的方式

- 进程间数据是独立的,可以借助于队列或管道实现通信,二者都是基于消息传递的
- 虽然进程间数据独立,但可以通过Manager实现数据共享,事实上Manager的功能远不止于此
- A manager object returned by Manager() controls a server process which holds Python objects and allows other processes to manipulate them using proxies.
- A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value and Array. For example,

- from multiprocessing import Manager,Process,Lock
- import os
- def work(d,lock):
- # with lock: #不加锁而操作共享的数据,肯定会出现数据错乱
- d['count']-=1
- if __name__ == '__main__':
- lock=Lock()
- with Manager() as m:
- dic=m.dict({'count':100})
- p_l=[]
- for i in range(100):
- p=Process(target=work,args=(dic,lock))
- p_l.append(p)
- p.start()
- for p in p_l:
- p.join()
- print(dic)
- #{'count': 94}
进程之间操作共享的数据
- # 共享文件,速度慢硬盘IO,没有锁
- # 内存级别
- # 队列,有锁,速度快
- # 没有锁就是数据可能不安全
- # 管道,隔离的进程之间通信,没有锁
- # IPC就是进程之间怎么通信,2种方式,队列和管道
- # 共享数据,共享内存最原始的方式,比如共享字典,没有锁,跟管道一样
- # Manager 共享数据
- # 代码一
- from multiprocessing import Manager,Process
- def work(dic):
- dic['count']-=1
- # if __name__ == '__main__':
- # m=Manager()
- # share_dic=m.dict({'count':100})
- # p_l=[]
- # for i in range(100): #开100个进程
- # p=Process(target=work,args=(share_dic,))
- # p_l.append(p)
- # p.start() #这里只是发信号
- # # p.join() #放在这里就是串行
- # for i in p_l: #可能出现同时写,因为共享数据
- # i.join()
- # print(share_dic)
- # 加锁共享数据,不会对数据产生修改
- from multiprocessing import Manager,Process,Lock
- def work(dic,mutex):
- # mutex.acquire() #加锁的2重写法
- # dic['count']-=1
- # mutex.release()
- with mutex:
- dic['count']-=1
- if __name__ == '__main__':
- mutex=Lock()
- m=Manager()
- share_dic=m.dict({'count':100})
- p_l=[]
- for i in range(100):
- p=Process(target=work,args=(share_dic,mutex))
- p_l.append(p)
- p.start()
- for i in p_l:
- i.join()
- print(share_dic)
My Code
二,开启进程池
在利用Python进行系统管理的时候,特别是同时操作多个文件目录,或者远程控制多台主机,并行操作可以节约大量的时间。多进程是实现并发的手段之一,需要注意的问题是:
- 很明显需要并发执行的任务通常要远大于核数
- 一个操作系统不可能无限开启进程,通常有几个核就开几个进程
- 进程开启过多,效率反而会下降(开启进程是需要占用系统资源的,而且开启多余核数目的进程也无法做到并行)
例如当被操作对象数目不大时,可以直接利用multiprocessing中的Process动态成生多个进程,十几个还好,但如果是上百个,上千个。。。手动的去限制进程数量却又太过繁琐,此时可以发挥进程池的功效。
我们就可以通过维护一个进程池来控制进程数目,比如httpd的进程模式,规定最小进程数和最大进程数...
ps:对于远程过程调用的高级应用程序而言,应该使用进程池,Pool可以提供指定数量的进程,供用户调用,当有新的请求提交到pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束,就重用进程池中的进程。
创建进程池的类:如果指定numprocess为3,则进程池会从无到有创建三个进程,然后自始至终使用这三个进程去执行所有任务,不会开启其他进程
- 1 Pool([numprocess [,initializer [, initargs]]]):创建进程池
参数介绍:
- 1 numprocess:要创建的进程数,如果省略,将默认使用cpu_count()的值
- 2 initializer:是每个工作进程启动时要执行的可调用对象,默认为None
- 3 initargs:是要传给initializer的参数组
方法介绍:

- 1 p.apply(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。需要强调的是:此操作并不会在所有池工作进程中并执行func函数。如果要通过不同参数并发地执行func函数,必须从不同线程调用p.apply()函数或者使用p.apply_async()
- 2 p.apply_async(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。此方法的结果是AsyncResult类的实例,callback是可调用对象,接收输入参数。当func的结果变为可用时,将理解传递给callback。callback禁止执行任何阻塞操作,否则将接收其他异步操作中的结果。
- 3
- 4 p.close():关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成
- 5 P.jion():等待所有工作进程退出。此方法只能在close()或teminate()之后调用

其他方法(了解部分)
- 方法apply_async()和map_async()的返回值是AsyncResul的实例obj。实例具有以下方法
- obj.get():返回结果,如果有必要则等待结果到达。timeout是可选的。如果在指定时间内还没有到达,将引发一场。如果远程操作中引发了异常,它将在调用此方法时再次被引发。
- obj.ready():如果调用完成,返回True
- obj.successful():如果调用完成且没有引发异常,返回True,如果在结果就绪之前调用此方法,引发异常
- obj.wait([timeout]):等待结果变为可用。
- obj.terminate():立即终止所有工作进程,同时不执行任何清理或结束任何挂起工作。如果p被垃圾回收,将自动调用此函数
应用:
- from multiprocessing import Pool
- import os,time
- def work(n):
- print('%s run' %os.getpid())
- time.sleep(3)
- return n**2
- if __name__ == '__main__':
- p=Pool(3) #进程池中从无到有创建三个进程,以后一直是这三个进程在执行任务
- res_l=[]
- for i in range(10):
- res=p.apply(work,args=(i,)) #同步运行,阻塞、直到本次任务执行完毕拿到res
- res_l.append(res)
- print(res_l)
apply同步执行:阻塞式
- from multiprocessing import Pool
- import os,time
- def work(n):
- print('%s run' %os.getpid())
- time.sleep(3)
- return n**2
- if __name__ == '__main__':
- p=Pool(3) #进程池中从无到有创建三个进程,以后一直是这三个进程在执行任务
- res_l=[]
- for i in range(10):
- res=p.apply_async(work,args=(i,)) #同步运行,阻塞、直到本次任务执行完毕拿到res
- res_l.append(res)
- #异步apply_async用法:如果使用异步提交的任务,主进程需要使用jion,等待进程池内任务都处理完,然后可以用get收集结果,否则,主进程结束,进程池可能还没来得及执行,也就跟着一起结束了
- p.close()
- p.join()
- for res in res_l:
- print(res.get()) #使用get来获取apply_aync的结果,如果是apply,则没有get方法,因为apply是同步执行,立刻获取结果,也根本无需get
apply_async异步执行:非阻塞
- #一:使用进程池(非阻塞,apply_async)
- #coding: utf-8
- from multiprocessing import Process,Pool
- import time
- def func(msg):
- print( "msg:", msg)
- time.sleep(1)
- return msg
- if __name__ == "__main__":
- pool = Pool(processes = 3)
- res_l=[]
- for i in range(10):
- msg = "hello %d" %(i)
- res=pool.apply_async(func, (msg, )) #维持执行的进程总数为processes,当一个进程执行完毕后会添加新的进程进去
- res_l.append(res)
- print("==============================>") #没有后面的join,或get,则程序整体结束,进程池中的任务还没来得及全部执行完也都跟着主进程一起结束了
- pool.close() #关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成
- pool.join() #调用join之前,先调用close函数,否则会出错。执行完close后不会有新的进程加入到pool,join函数等待所有子进程结束
- print(res_l) #看到的是<multiprocessing.pool.ApplyResult object at 0x10357c4e0>对象组成的列表,而非最终的结果,但这一步是在join后执行的,证明结果已经计算完毕,剩下的事情就是调用每个对象下的get方法去获取结果
- for i in res_l:
- print(i.get()) #使用get来获取apply_aync的结果,如果是apply,则没有get方法,因为apply是同步执行,立刻获取结果,也根本无需get
- #二:使用进程池(阻塞,apply)
- #coding: utf-8
- from multiprocessing import Process,Pool
- import time
- def func(msg):
- print( "msg:", msg)
- time.sleep(0.1)
- return msg
- if __name__ == "__main__":
- pool = Pool(processes = 3)
- res_l=[]
- for i in range(10):
- msg = "hello %d" %(i)
- res=pool.apply(func, (msg, )) #维持执行的进程总数为processes,当一个进程执行完毕后会添加新的进程进去
- res_l.append(res) #同步执行,即执行完一个拿到结果,再去执行另外一个
- print("==============================>")
- pool.close()
- pool.join() #调用join之前,先调用close函数,否则会出错。执行完close后不会有新的进程加入到pool,join函数等待所有子进程结束
- print(res_l) #看到的就是最终的结果组成的列表
- for i in res_l: #apply是同步的,所以直接得到结果,没有get()方法
- print(i)
详解:apply_async与apply
练习2:使用进程池维护固定数目的进程(重写练习1)
- #Pool内的进程数默认是cpu核数,假设为4(查看方法os.cpu_count())
- #开启6个客户端,会发现2个客户端处于等待状态
- #在每个进程内查看pid,会发现pid使用为4个,即多个客户端公用4个进程
- from socket import *
- from multiprocessing import Pool
- import os
- server=socket(AF_INET,SOCK_STREAM)
- server.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
- server.bind(('127.0.0.1',8080))
- server.listen(5)
- def talk(conn,client_addr):
- print('进程pid: %s' %os.getpid())
- while True:
- try:
- msg=conn.recv(1024)
- if not msg:break
- conn.send(msg.upper())
- except Exception:
- break
- if __name__ == '__main__':
- p=Pool()
- while True:
- conn,client_addr=server.accept()
- p.apply_async(talk,args=(conn,client_addr))
- # p.apply(talk,args=(conn,client_addr)) #同步的话,则同一时间只有一个客户端能访问
server端
- from socket import *
- client=socket(AF_INET,SOCK_STREAM)
- client.connect(('127.0.0.1',8080))
- while True:
- msg=input('>>: ').strip()
- if not msg:continue
- client.send(msg.encode('utf-8'))
- msg=client.recv(1024)
- print(msg.decode('utf-8'))
客户端
发现:并发开启多个客户端,服务端同一时间只有3个不同的pid,干掉一个客户端,另外一个客户端才会进来,被3个进程之一处理
三,进程回调函数
回掉函数:
需要回调函数的场景:进程池中任何一个任务一旦处理完了,就立即告知主进程:我好了额,你可以处理我的结果了。主进程则调用一个函数去处理该结果,该函数即回调函数
我们可以把耗时间(阻塞)的任务放到进程池中,然后指定回调函数(主进程负责执行),这样主进程在执行回调函数时就省去了I/O的过程,直接拿到的是任务的结果。
- from multiprocessing import Pool
- import requests
- import json
- import os
- def get_page(url):
- print('<进程%s> get %s' %(os.getpid(),url))
- respone=requests.get(url)
- if respone.status_code == 200:
- return {'url':url,'text':respone.text}
- def pasrse_page(res):
- print('<进程%s> parse %s' %(os.getpid(),res['url']))
- parse_res='url:<%s> size:[%s]\n' %(res['url'],len(res['text']))
- with open('db.txt','a') as f:
- f.write(parse_res)
- if __name__ == '__main__':
- urls=[
- 'https://www.baidu.com',
- 'https://www.python.org',
- 'https://www.openstack.org',
- 'https://help.github.com/',
- 'http://www.sina.com.cn/'
- ]
- p=Pool(3)
- res_l=[]
- for url in urls:
- res=p.apply_async(get_page,args=(url,),callback=pasrse_page)
- res_l.append(res)
- p.close()
- p.join()
- print([res.get() for res in res_l]) #拿到的是get_page的结果,其实完全没必要拿该结果,该结果已经传给回调函数处理了
- '''
- 打印结果:
- <进程3388> get https://www.baidu.com
- <进程3389> get https://www.python.org
- <进程3390> get https://www.openstack.org
- <进程3388> get https://help.github.com/
- <进程3387> parse https://www.baidu.com
- <进程3389> get http://www.sina.com.cn/
- <进程3387> parse https://www.python.org
- <进程3387> parse https://help.github.com/
- <进程3387> parse http://www.sina.com.cn/
- <进程3387> parse https://www.openstack.org
- [{'url': 'https://www.baidu.com', 'text': '<!DOCTYPE html>\r\n...',...}]
- '''
- from multiprocessing import Pool
- import time,random
- import requests
- import re
- def get_page(url,pattern):
- response=requests.get(url)
- if response.status_code == 200:
- return (response.text,pattern)
- def parse_page(info):
- page_content,pattern=info
- res=re.findall(pattern,page_content)
- for item in res:
- dic={
- 'index':item[0],
- 'title':item[1],
- 'actor':item[2].strip()[3:],
- 'time':item[3][5:],
- 'score':item[4]+item[5]
- }
- print(dic)
- if __name__ == '__main__':
- pattern1=re.compile(r'<dd>.*?board-index.*?>(\d+)<.*?title="(.*?)".*?star.*?>(.*?)<.*?releasetime.*?>(.*?)<.*?integer.*?>(.*?)<.*?fraction.*?>(.*?)<',re.S)
- url_dic={
- 'http://maoyan.com/board/7':pattern1,
- }
- p=Pool()
- res_l=[]
- for url,pattern in url_dic.items():
- res=p.apply_async(get_page,args=(url,pattern),callback=parse_page)
- res_l.append(res)
- for i in res_l:
- i.get()
- # res=requests.get('http://maoyan.com/board/7')
- # print(re.findall(pattern,res.text))
爬虫案例
如果在主进程中等待进程池中所有任务都执行完毕后,再统一处理结果,则无需回调函数
- from multiprocessing import Pool
- import time,random,os
- def work(n):
- time.sleep(1)
- return n**2
- if __name__ == '__main__':
- p=Pool()
- res_l=[]
- for i in range(10):
- res=p.apply_async(work,args=(i,))
- res_l.append(res)
- p.close()
- p.join() #等待进程池中所有进程执行完毕
- nums=[]
- for res in res_l:
- nums.append(res.get()) #拿到所有结果
- print(nums) #主进程拿到所有的处理结果,可以在主进程中进行统一进行处理
python并发编程之多进程(三):共享数据&进程池的更多相关文章
- python并发编程之多进程2-(数据共享及进程池和回调函数)
一.数据共享 1.进程间的通信应该尽量避免共享数据的方式 2.进程间的数据是独立的,可以借助队列或管道实现通信,二者都是基于消息传递的. 虽然进程间数据独立,但可以用过Manager实现数据共享,事实 ...
- python并发编程之多进程2数据共享及进程池和回调函数
一.数据共享 尽量避免共享数据的方式 可以借助队列或管道实现通信,二者都是基于消息传递的. 虽然进程间数据独立,但可以用过Manager实现数据共享,事实上Manager的功能远不止于此. 命令就是一 ...
- Python进阶(4)_进程与线程 (python并发编程之多进程)
一.python并发编程之多进程 1.1 multiprocessing模块介绍 由于GIL的存在,python中的多线程其实并不是真正的多线程,如果想要充分地使用多核CPU的资源,在python中大 ...
- python并发编程02 /多进程、进程的创建、进程PID、join方法、进程对象属性、守护进程
python并发编程02 /多进程.进程的创建.进程PID.join方法.进程对象属性.守护进程 目录 python并发编程02 /多进程.进程的创建.进程PID.join方法.进程对象属性.守护进程 ...
- Python并发编程__多进程
Python并发编程_多进程 multiprocessing模块介绍 python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大 ...
- python并发编程之多进程2-------------数据共享及进程池和回调函数
一.数据共享 1.进程间的通信应该尽量避免共享数据的方式 2.进程间的数据是独立的,可以借助队列或管道实现通信,二者都是基于消息传递的. 虽然进程间数据独立,但可以用过Manager实现数据共享,事实 ...
- python并发编程之多进程二
一,multiprocessing模块介绍 python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程.P ...
- python并发编程之多进程(二):互斥锁(同步锁)&进程其他属性&进程间通信(queue)&生产者消费者模型
一,互斥锁,同步锁 进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的, 竞争带来的结果就是错乱,如何控制,就是加锁处理 part1:多个进程共享同一打印终 ...
- 28 python 并发编程之多进程
一 multiprocessing模块介绍 python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程.P ...
随机推荐
- 一句话 Servlet
Servlet是用来完成B/S架构下,客户端请求的响应处理. web.xml其实就是servlet的一个配置文件,通过他来寻找对应的servlet
- (2-2)SpringCloud-服务注册到Eureka Server集群并消费
服务注册到Eureka Server集群 在(2-1)SpringCloue-Eureka实现高可用注册中心中我们搭建好了高可用的Eureka注册中心,下面我们要把服务注册到Eureka Server ...
- linux_软件安装策略和升级策略
运维3大原则:可靠.稳定.简单 尝试新的软件,一切都是未知的,也就是说不可靠,不可预测也就意味的不稳定,解决问题,通过百度和谷歌工具有可能找不到解决方法,只能通过官方文档来解决问题,大大增加了排错时间 ...
- Python中几种数据类型list, tuple,dict,set的使用演示
还是直接上代码,看着代码运行,看函数介绍 # coding=utf-8 # 1 list-列表 的用法 students = [1,2,3] a = 5 classmates = [students* ...
- Servlet--继承HttpServlet写自己的Servlet
前面2篇关注的都是Servlet接口,在实际编码中一般不直接实现这个接口,而是继承HttpServlet类.因为j2e的包里面写好了GenericServlet和HttpServlet类来让我们简化编 ...
- linkin大话设计模式--代理模式
代理模式是一种应用非常广泛的设计模式,当客户端代码需要调用某个对象的时候,客户端并不关心是否可以准确的得到这个对象,他只要一个能够提供该功能的对象而已,此时我们就可以返回该对象的代理.总而言之,客户端 ...
- android imageview按钮按下动画效果
private ImageView today_eat: today_eat = (ImageView) view.findViewById(R.id.today_eat); today_eat.se ...
- nodejs爬虫笔记(四)---利用nightmare解决加载更多问题
目标: 解决页面加载更多问题.笔记三中,我们只爬取到网页的部分信息,而点击加载更多后的页面内容是没有提取到的.开始我的想法是找到加载更多的数据接口(可参照:http://www.jianshu.com ...
- 2017noip普及组赛前注意事项总结
petr 大神镇场 距人生第一场noip只差4天半了(好紧张) 总结几下四道题的做题策略 NO1 第一题一般是送分的,认真读题,别太草率,多想几遍再动手,把重要的地方圈一圈.画一画,自己找几个数据多试 ...
- YII关联字段并带搜索排序功能
1.简介 从接触yii框架到现在已经快有两个月了,但是自己对yii框架的了解程度并不是很深,并没有系统地去学习,仅仅只是在做项目的时候遇到不懂得知识才去翻手册. 在上一个项目中因为需要将关联的表的字段 ...