一,共享数据

展望未来,基于消息传递的并发编程是大势所趋

即便是使用线程,推荐做法也是将程序设计为大量独立的线程集合

通过消息队列交换数据。这样极大地减少了对使用锁定和其他同步手段的需求,

还可以扩展到分布式系统中

进程间通信应该尽量避免使用本节所讲的共享数据的方式

  1. 进程间数据是独立的,可以借助于队列或管道实现通信,二者都是基于消息传递的
  2.  
  3. 虽然进程间数据独立,但可以通过Manager实现数据共享,事实上Manager的功能远不止于此
  4.  
  5. A manager object returned by Manager() controls a server process which holds Python objects and allows other processes to manipulate them using proxies.
  6.  
  7. A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value and Array. For example,
  1. from multiprocessing import Manager,Process,Lock
  2. import os
  3. def work(d,lock):
  4. # with lock: #不加锁而操作共享的数据,肯定会出现数据错乱
  5. d['count']-=1
  6.  
  7. if __name__ == '__main__':
  8. lock=Lock()
  9. with Manager() as m:
  10. dic=m.dict({'count':100})
  11. p_l=[]
  12. for i in range(100):
  13. p=Process(target=work,args=(dic,lock))
  14. p_l.append(p)
  15. p.start()
  16. for p in p_l:
  17. p.join()
  18. print(dic)
  19. #{'count': 94}

进程之间操作共享的数据

  1. # 共享文件,速度慢硬盘IO,没有锁
  2. # 内存级别
  3. # 队列,有锁,速度快
  4. # 没有锁就是数据可能不安全
  5. # 管道,隔离的进程之间通信,没有锁
  6.  
  7. # IPC就是进程之间怎么通信,2种方式,队列和管道
  8.  
  9. # 共享数据,共享内存最原始的方式,比如共享字典,没有锁,跟管道一样
  10. # Manager 共享数据
  11. # 代码一
  12. from multiprocessing import Manager,Process
  13. def work(dic):
  14. dic['count']-=1
  15. # if __name__ == '__main__':
  16. # m=Manager()
  17. # share_dic=m.dict({'count':100})
  18. # p_l=[]
  19. # for i in range(100): #开100个进程
  20. # p=Process(target=work,args=(share_dic,))
  21. # p_l.append(p)
  22. # p.start() #这里只是发信号
  23. # # p.join() #放在这里就是串行
  24. # for i in p_l: #可能出现同时写,因为共享数据
  25. # i.join()
  26. # print(share_dic)
  27.  
  28. # 加锁共享数据,不会对数据产生修改
  29. from multiprocessing import Manager,Process,Lock
  30. def work(dic,mutex):
  31. # mutex.acquire() #加锁的2重写法
  32. # dic['count']-=1
  33. # mutex.release()
  34. with mutex:
  35. dic['count']-=1
  36.  
  37. if __name__ == '__main__':
  38. mutex=Lock()
  39. m=Manager()
  40. share_dic=m.dict({'count':100})
  41. p_l=[]
  42. for i in range(100):
  43. p=Process(target=work,args=(share_dic,mutex))
  44. p_l.append(p)
  45. p.start()
  46. for i in p_l:
  47. i.join()
  48. print(share_dic)

My Code

二,开启进程池

在利用Python进行系统管理的时候,特别是同时操作多个文件目录,或者远程控制多台主机,并行操作可以节约大量的时间。多进程是实现并发的手段之一,需要注意的问题是:

  1. 很明显需要并发执行的任务通常要远大于核数
  2. 一个操作系统不可能无限开启进程,通常有几个核就开几个进程
  3. 进程开启过多,效率反而会下降(开启进程是需要占用系统资源的,而且开启多余核数目的进程也无法做到并行)

例如当被操作对象数目不大时,可以直接利用multiprocessing中的Process动态成生多个进程,十几个还好,但如果是上百个,上千个。。。手动的去限制进程数量却又太过繁琐,此时可以发挥进程池的功效。

我们就可以通过维护一个进程池来控制进程数目,比如httpd的进程模式,规定最小进程数和最大进程数...
ps:对于远程过程调用的高级应用程序而言,应该使用进程池,Pool可以提供指定数量的进程,供用户调用,当有新的请求提交到pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束,就重用进程池中的进程。

    创建进程池的类:如果指定numprocess为3,则进程池会从无到有创建三个进程,然后自始至终使用这三个进程去执行所有任务,不会开启其他进程

  1. 1 Pool([numprocess [,initializer [, initargs]]]):创建进程池 

    参数介绍:

  1. 1 numprocess:要创建的进程数,如果省略,将默认使用cpu_count()的值
  2. 2 initializer:是每个工作进程启动时要执行的可调用对象,默认为None
  3. 3 initargs:是要传给initializer的参数组

  方法介绍:

    主要方法:
  1. 1 p.apply(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。需要强调的是:此操作并不会在所有池工作进程中并执行func函数。如果要通过不同参数并发地执行func函数,必须从不同线程调用p.apply()函数或者使用p.apply_async()
  2. 2 p.apply_async(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。此方法的结果是AsyncResult类的实例,callback是可调用对象,接收输入参数。当func的结果变为可用时,将理解传递给callbackcallback禁止执行任何阻塞操作,否则将接收其他异步操作中的结果。
  3. 3
  4. 4 p.close():关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成
  5. 5 P.jion():等待所有工作进程退出。此方法只能在close()或teminate()之后调用

其他方法(了解部分)

  1. 方法apply_async()和map_async()的返回值是AsyncResul的实例obj。实例具有以下方法
  2. obj.get():返回结果,如果有必要则等待结果到达。timeout是可选的。如果在指定时间内还没有到达,将引发一场。如果远程操作中引发了异常,它将在调用此方法时再次被引发。
  3. obj.ready():如果调用完成,返回True
  4. obj.successful():如果调用完成且没有引发异常,返回True,如果在结果就绪之前调用此方法,引发异常
  5. obj.wait([timeout]):等待结果变为可用。
  6. obj.terminate():立即终止所有工作进程,同时不执行任何清理或结束任何挂起工作。如果p被垃圾回收,将自动调用此函数

     应用:

  1. from multiprocessing import Pool
  2. import os,time
  3. def work(n):
  4. print('%s run' %os.getpid())
  5. time.sleep(3)
  6. return n**2
  7.  
  8. if __name__ == '__main__':
  9. p=Pool(3) #进程池中从无到有创建三个进程,以后一直是这三个进程在执行任务
  10. res_l=[]
  11. for i in range(10):
  12. res=p.apply(work,args=(i,)) #同步运行,阻塞、直到本次任务执行完毕拿到res
  13. res_l.append(res)
  14. print(res_l)

apply同步执行:阻塞式

  1. from multiprocessing import Pool
  2. import os,time
  3. def work(n):
  4. print('%s run' %os.getpid())
  5. time.sleep(3)
  6. return n**2
  7.  
  8. if __name__ == '__main__':
  9. p=Pool(3) #进程池中从无到有创建三个进程,以后一直是这三个进程在执行任务
  10. res_l=[]
  11. for i in range(10):
  12. res=p.apply_async(work,args=(i,)) #同步运行,阻塞、直到本次任务执行完毕拿到res
  13. res_l.append(res)
  14.  
  15. #异步apply_async用法:如果使用异步提交的任务,主进程需要使用jion,等待进程池内任务都处理完,然后可以用get收集结果,否则,主进程结束,进程池可能还没来得及执行,也就跟着一起结束了
  16. p.close()
  17. p.join()
  18. for res in res_l:
  19. print(res.get()) #使用get来获取apply_aync的结果,如果是apply,则没有get方法,因为apply是同步执行,立刻获取结果,也根本无需get

apply_async异步执行:非阻塞

  1. #一:使用进程池(非阻塞,apply_async)
  2. #coding: utf-8
  3. from multiprocessing import Process,Pool
  4. import time
  5.  
  6. def func(msg):
  7. print( "msg:", msg)
  8. time.sleep(1)
  9. return msg
  10.  
  11. if __name__ == "__main__":
  12. pool = Pool(processes = 3)
  13. res_l=[]
  14. for i in range(10):
  15. msg = "hello %d" %(i)
  16. res=pool.apply_async(func, (msg, )) #维持执行的进程总数为processes,当一个进程执行完毕后会添加新的进程进去
  17. res_l.append(res)
  18. print("==============================>") #没有后面的join,或get,则程序整体结束,进程池中的任务还没来得及全部执行完也都跟着主进程一起结束了
  19.  
  20. pool.close() #关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成
  21. pool.join() #调用join之前,先调用close函数,否则会出错。执行完close后不会有新的进程加入到pool,join函数等待所有子进程结束
  22.  
  23. print(res_l) #看到的是<multiprocessing.pool.ApplyResult object at 0x10357c4e0>对象组成的列表,而非最终的结果,但这一步是在join后执行的,证明结果已经计算完毕,剩下的事情就是调用每个对象下的get方法去获取结果
  24. for i in res_l:
  25. print(i.get()) #使用get来获取apply_aync的结果,如果是apply,则没有get方法,因为apply是同步执行,立刻获取结果,也根本无需get
  26.  
  27. #二:使用进程池(阻塞,apply)
  28. #coding: utf-8
  29. from multiprocessing import Process,Pool
  30. import time
  31.  
  32. def func(msg):
  33. print( "msg:", msg)
  34. time.sleep(0.1)
  35. return msg
  36.  
  37. if __name__ == "__main__":
  38. pool = Pool(processes = 3)
  39. res_l=[]
  40. for i in range(10):
  41. msg = "hello %d" %(i)
  42. res=pool.apply(func, (msg, )) #维持执行的进程总数为processes,当一个进程执行完毕后会添加新的进程进去
  43. res_l.append(res) #同步执行,即执行完一个拿到结果,再去执行另外一个
  44. print("==============================>")
  45. pool.close()
  46. pool.join() #调用join之前,先调用close函数,否则会出错。执行完close后不会有新的进程加入到pool,join函数等待所有子进程结束
  47.  
  48. print(res_l) #看到的就是最终的结果组成的列表
  49. for i in res_l: #apply是同步的,所以直接得到结果,没有get()方法
  50. print(i)

详解:apply_async与apply

练习2:使用进程池维护固定数目的进程(重写练习1)

  1. #Pool内的进程数默认是cpu核数,假设为4(查看方法os.cpu_count())
  2. #开启6个客户端,会发现2个客户端处于等待状态
  3. #在每个进程内查看pid,会发现pid使用为4个,即多个客户端公用4个进程
  4. from socket import *
  5. from multiprocessing import Pool
  6. import os
  7.  
  8. server=socket(AF_INET,SOCK_STREAM)
  9. server.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
  10. server.bind(('127.0.0.1',8080))
  11. server.listen(5)
  12.  
  13. def talk(conn,client_addr):
  14. print('进程pid: %s' %os.getpid())
  15. while True:
  16. try:
  17. msg=conn.recv(1024)
  18. if not msg:break
  19. conn.send(msg.upper())
  20. except Exception:
  21. break
  22.  
  23. if __name__ == '__main__':
  24. p=Pool()
  25. while True:
  26. conn,client_addr=server.accept()
  27. p.apply_async(talk,args=(conn,client_addr))
  28. # p.apply(talk,args=(conn,client_addr)) #同步的话,则同一时间只有一个客户端能访问

server端

  1. from socket import *
  2.  
  3. client=socket(AF_INET,SOCK_STREAM)
  4. client.connect(('127.0.0.1',8080))
  5.  
  6. while True:
  7. msg=input('>>: ').strip()
  8. if not msg:continue
  9.  
  10. client.send(msg.encode('utf-8'))
  11. msg=client.recv(1024)
  12. print(msg.decode('utf-8'))

客户端

发现:并发开启多个客户端,服务端同一时间只有3个不同的pid,干掉一个客户端,另外一个客户端才会进来,被3个进程之一处理

三,进程回调函数

回掉函数:

需要回调函数的场景:进程池中任何一个任务一旦处理完了,就立即告知主进程:我好了额,你可以处理我的结果了。主进程则调用一个函数去处理该结果,该函数即回调函数

我们可以把耗时间(阻塞)的任务放到进程池中,然后指定回调函数(主进程负责执行),这样主进程在执行回调函数时就省去了I/O的过程,直接拿到的是任务的结果。

  1. from multiprocessing import Pool
  2. import requests
  3. import json
  4. import os
  5.  
  6. def get_page(url):
  7. print('<进程%s> get %s' %(os.getpid(),url))
  8. respone=requests.get(url)
  9. if respone.status_code == 200:
  10. return {'url':url,'text':respone.text}
  11.  
  12. def pasrse_page(res):
  13. print('<进程%s> parse %s' %(os.getpid(),res['url']))
  14. parse_res='url:<%s> size:[%s]\n' %(res['url'],len(res['text']))
  15. with open('db.txt','a') as f:
  16. f.write(parse_res)
  17.  
  18. if __name__ == '__main__':
  19. urls=[
  20. 'https://www.baidu.com',
  21. 'https://www.python.org',
  22. 'https://www.openstack.org',
  23. 'https://help.github.com/',
  24. 'http://www.sina.com.cn/'
  25. ]
  26.  
  27. p=Pool(3)
  28. res_l=[]
  29. for url in urls:
  30. res=p.apply_async(get_page,args=(url,),callback=pasrse_page)
  31. res_l.append(res)
  32.  
  33. p.close()
  34. p.join()
  35. print([res.get() for res in res_l]) #拿到的是get_page的结果,其实完全没必要拿该结果,该结果已经传给回调函数处理了
  36.  
  37. '''
  38. 打印结果:
  39. <进程3388> get https://www.baidu.com
  40. <进程3389> get https://www.python.org
  41. <进程3390> get https://www.openstack.org
  42. <进程3388> get https://help.github.com/
  43. <进程3387> parse https://www.baidu.com
  44. <进程3389> get http://www.sina.com.cn/
  45. <进程3387> parse https://www.python.org
  46. <进程3387> parse https://help.github.com/
  47. <进程3387> parse http://www.sina.com.cn/
  48. <进程3387> parse https://www.openstack.org
  49. [{'url': 'https://www.baidu.com', 'text': '<!DOCTYPE html>\r\n...',...}]
  50. '''
  1. from multiprocessing import Pool
  2. import time,random
  3. import requests
  4. import re
  5.  
  6. def get_page(url,pattern):
  7. response=requests.get(url)
  8. if response.status_code == 200:
  9. return (response.text,pattern)
  10.  
  11. def parse_page(info):
  12. page_content,pattern=info
  13. res=re.findall(pattern,page_content)
  14. for item in res:
  15. dic={
  16. 'index':item[0],
  17. 'title':item[1],
  18. 'actor':item[2].strip()[3:],
  19. 'time':item[3][5:],
  20. 'score':item[4]+item[5]
  21.  
  22. }
  23. print(dic)
  24. if __name__ == '__main__':
  25. pattern1=re.compile(r'<dd>.*?board-index.*?>(\d+)<.*?title="(.*?)".*?star.*?>(.*?)<.*?releasetime.*?>(.*?)<.*?integer.*?>(.*?)<.*?fraction.*?>(.*?)<',re.S)
  26.  
  27. url_dic={
  28. 'http://maoyan.com/board/7':pattern1,
  29. }
  30.  
  31. p=Pool()
  32. res_l=[]
  33. for url,pattern in url_dic.items():
  34. res=p.apply_async(get_page,args=(url,pattern),callback=parse_page)
  35. res_l.append(res)
  36.  
  37. for i in res_l:
  38. i.get()
  39.  
  40. # res=requests.get('http://maoyan.com/board/7')
  41. # print(re.findall(pattern,res.text))

爬虫案例

如果在主进程中等待进程池中所有任务都执行完毕后,再统一处理结果,则无需回调函数

  1. from multiprocessing import Pool
  2. import time,random,os
  3.  
  4. def work(n):
  5. time.sleep(1)
  6. return n**2
  7. if __name__ == '__main__':
  8. p=Pool()
  9.  
  10. res_l=[]
  11. for i in range(10):
  12. res=p.apply_async(work,args=(i,))
  13. res_l.append(res)
  14.  
  15. p.close()
  16. p.join() #等待进程池中所有进程执行完毕
  17.  
  18. nums=[]
  19. for res in res_l:
  20. nums.append(res.get()) #拿到所有结果
  21. print(nums) #主进程拿到所有的处理结果,可以在主进程中进行统一进行处理
 
 

python并发编程之多进程(三):共享数据&进程池的更多相关文章

  1. python并发编程之多进程2-(数据共享及进程池和回调函数)

    一.数据共享 1.进程间的通信应该尽量避免共享数据的方式 2.进程间的数据是独立的,可以借助队列或管道实现通信,二者都是基于消息传递的. 虽然进程间数据独立,但可以用过Manager实现数据共享,事实 ...

  2. python并发编程之多进程2数据共享及进程池和回调函数

    一.数据共享 尽量避免共享数据的方式 可以借助队列或管道实现通信,二者都是基于消息传递的. 虽然进程间数据独立,但可以用过Manager实现数据共享,事实上Manager的功能远不止于此. 命令就是一 ...

  3. Python进阶(4)_进程与线程 (python并发编程之多进程)

    一.python并发编程之多进程 1.1 multiprocessing模块介绍 由于GIL的存在,python中的多线程其实并不是真正的多线程,如果想要充分地使用多核CPU的资源,在python中大 ...

  4. python并发编程02 /多进程、进程的创建、进程PID、join方法、进程对象属性、守护进程

    python并发编程02 /多进程.进程的创建.进程PID.join方法.进程对象属性.守护进程 目录 python并发编程02 /多进程.进程的创建.进程PID.join方法.进程对象属性.守护进程 ...

  5. Python并发编程__多进程

    Python并发编程_多进程 multiprocessing模块介绍 python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大 ...

  6. python并发编程之多进程2-------------数据共享及进程池和回调函数

    一.数据共享 1.进程间的通信应该尽量避免共享数据的方式 2.进程间的数据是独立的,可以借助队列或管道实现通信,二者都是基于消息传递的. 虽然进程间数据独立,但可以用过Manager实现数据共享,事实 ...

  7. python并发编程之多进程二

    一,multiprocessing模块介绍 python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程.P ...

  8. python并发编程之多进程(二):互斥锁(同步锁)&进程其他属性&进程间通信(queue)&生产者消费者模型

    一,互斥锁,同步锁 进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的, 竞争带来的结果就是错乱,如何控制,就是加锁处理 part1:多个进程共享同一打印终 ...

  9. 28 python 并发编程之多进程

    一 multiprocessing模块介绍 python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程.P ...

随机推荐

  1. 一句话 Servlet

    Servlet是用来完成B/S架构下,客户端请求的响应处理. web.xml其实就是servlet的一个配置文件,通过他来寻找对应的servlet

  2. (2-2)SpringCloud-服务注册到Eureka Server集群并消费

    服务注册到Eureka Server集群 在(2-1)SpringCloue-Eureka实现高可用注册中心中我们搭建好了高可用的Eureka注册中心,下面我们要把服务注册到Eureka Server ...

  3. linux_软件安装策略和升级策略

    运维3大原则:可靠.稳定.简单 尝试新的软件,一切都是未知的,也就是说不可靠,不可预测也就意味的不稳定,解决问题,通过百度和谷歌工具有可能找不到解决方法,只能通过官方文档来解决问题,大大增加了排错时间 ...

  4. Python中几种数据类型list, tuple,dict,set的使用演示

    还是直接上代码,看着代码运行,看函数介绍 # coding=utf-8 # 1 list-列表 的用法 students = [1,2,3] a = 5 classmates = [students* ...

  5. Servlet--继承HttpServlet写自己的Servlet

    前面2篇关注的都是Servlet接口,在实际编码中一般不直接实现这个接口,而是继承HttpServlet类.因为j2e的包里面写好了GenericServlet和HttpServlet类来让我们简化编 ...

  6. linkin大话设计模式--代理模式

    代理模式是一种应用非常广泛的设计模式,当客户端代码需要调用某个对象的时候,客户端并不关心是否可以准确的得到这个对象,他只要一个能够提供该功能的对象而已,此时我们就可以返回该对象的代理.总而言之,客户端 ...

  7. android imageview按钮按下动画效果

    private ImageView today_eat: today_eat = (ImageView) view.findViewById(R.id.today_eat); today_eat.se ...

  8. nodejs爬虫笔记(四)---利用nightmare解决加载更多问题

    目标: 解决页面加载更多问题.笔记三中,我们只爬取到网页的部分信息,而点击加载更多后的页面内容是没有提取到的.开始我的想法是找到加载更多的数据接口(可参照:http://www.jianshu.com ...

  9. 2017noip普及组赛前注意事项总结

    petr 大神镇场 距人生第一场noip只差4天半了(好紧张) 总结几下四道题的做题策略 NO1 第一题一般是送分的,认真读题,别太草率,多想几遍再动手,把重要的地方圈一圈.画一画,自己找几个数据多试 ...

  10. YII关联字段并带搜索排序功能

    1.简介 从接触yii框架到现在已经快有两个月了,但是自己对yii框架的了解程度并不是很深,并没有系统地去学习,仅仅只是在做项目的时候遇到不懂得知识才去翻手册. 在上一个项目中因为需要将关联的表的字段 ...