Python 3 并发编程多进程之队列(推荐使用)
Python 3 并发编程多进程之队列(推荐使用)
进程彼此之间互相隔离,要实现进程间通信(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的。
可以往队列里放任意类型的数据
创建队列的类(底层就是以管道和锁定的方式实现):
- 1 Queue([maxsize]):创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。
参数介绍:
- 1 maxsize是队列中允许最大项数,省略则无大小限制。
方法介绍:
1、主要方法:
- q.put方法用以插入数据到队列中,put方法还有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,该方法会阻塞timeout指定的时间,直到该队列有剩余的空间。如果超时,会抛出Queue.Full异常。如果blocked为False,但该Queue已满,会立即抛出Queue.Full异常。
- q.get方法可以从队列读取并且删除一个元素。同样,get方法有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,那么在等待时间内没有取到任何元素,会抛出Queue.Empty异常。如果blocked为False,有两种情况存在,如果Queue有一个值可用,则立即返回该值,否则,如果队列为空,则立即抛出Queue.Empty异常.
- q.get_nowait():同q.get(False)
- q.put_nowait():同q.put(False)
- q.empty():调用此方法时q为空则返回True,该结果不可靠,比如在返回True的过程中,如果队列中又加入了项目。
- q.full():调用此方法时q已满则返回True,该结果不可靠,比如在返回True的过程中,如果队列中的项目被取走。
- q.qsize():返回队列中目前项目的正确数量,结果也不可靠,理由同q.empty()和q.full()一样
2、其他方法(了解):
- 1 q.cancel_join_thread():不会在进程退出时自动连接后台线程。可以防止join_thread()方法阻塞
- 2 q.close():关闭队列,防止队列中加入更多数据。调用此方法,后台线程将继续写入那些已经入队列但尚未写入的数据,但将在此方法完成时马上关闭。如果q被垃圾收集,将调用此方法。关闭队列不会在队列使用者中产生任何类型的数据结束信号或异常。例如,如果某个使用者正在被阻塞在get()操作上,关闭生产者中的队列不会导致get()方法返回错误。
- 3 q.join_thread():连接队列的后台线程。此方法用于在调用q.close()方法之后,等待所有队列项被消耗。默认情况下,此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread方法可以禁止这种行为
3、应用:
- '''
- multiprocessing模块支持进程间通信的两种主要形式:管道和队列
- 都是基于消息传递实现的,但是队列接口
- 1:可以往队列里放任意类型的数据 2 队列:先进先出
- '''
- from multiprocessing import Process,Queue
- import time
- q=Queue(3)
- #put ,get ,put_nowait,get_nowait,full,empty
- q.put(3)
- q.put(3)
- q.put(3)
- print(q.full()) #满了
- print(q.get())
- print(q.get())
- print(q.get())
- print(q.empty()) #空了
4、生产者消费者模型
在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。
5、为什么要使用生产者和消费者模式
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。
6、什么是生产者消费者模式
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。
7、基于队列实现生产者消费者模型
- from multiprocessing import Process,Queue
- import time,random,os
- def consumer(q):
- while True:
- res=q.get()
- time.sleep(random.randint(1,3))
- print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))
- def producer(q):
- for i in range(10):
- time.sleep(random.randint(1,3))
- res='包子%s' %i
- q.put(res)
- print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))
- if __name__ == '__main__':
- q=Queue()
- #生产者们:即厨师们
- p1=Process(target=producer,args=(q,))
- #消费者们:即吃货们
- c1=Process(target=consumer,args=(q,))
- #开始
- p1.start()
- c1.start()
- print('主')
生产者消费者模型
此时的问题是主进程永远不会结束,原因是:生产者p在生产完后就结束了,但是消费者c在取空了q之后,则一直处于死循环中且卡在q.get()这一步。
解决方式无非是让生产者在生产完毕后,往队列中再发一个结束信号,这样消费者在接收到结束信号后就可以break出死循环。
- from multiprocessing import Process,Queue
- import time,random,os
- def consumer(q):
- while True:
- res=q.get()
- if res is None:break #收到结束信号则结束
- time.sleep(random.randint(1,3))
- print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))
- def producer(q):
- for i in range(10):
- time.sleep(random.randint(1,3))
- res='包子%s' %i
- q.put(res)
- print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))
- q.put(None) #发送结束信号
- if __name__ == '__main__':
- q=Queue()
- #生产者们:即厨师们
- p1=Process(target=producer,args=(q,))
- #消费者们:即吃货们
- c1=Process(target=consumer,args=(q,))
- #开始
- p1.start()
- c1.start()
- print('主')
生产者在生产完毕后发送结束信号None
注意:结束信号None,不一定要由生产者发,主进程里同样可以发,但主进程需要等生产者结束后才应该发送该信号。
- from multiprocessing import Process,Queue
- import time,random,os
- def consumer(q):
- while True:
- res=q.get()
- if res is None:break #收到结束信号则结束
- time.sleep(random.randint(1,3))
- print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))
- def producer(name,q):
- for i in range(2):
- time.sleep(random.randint(1,3))
- res='%s%s' %(name,i)
- q.put(res)
- print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))
- if __name__ == '__main__':
- q=Queue()
- #生产者们:即厨师们
- p1=Process(target=producer,args=('包子',q))
- p2=Process(target=producer,args=('骨头',q))
- p3=Process(target=producer,args=('泔水',q))
- #消费者们:即吃货们
- c1=Process(target=consumer,args=(q,))
- c2=Process(target=consumer,args=(q,))
- #开始
- p1.start()
- p2.start()
- p3.start()
- c1.start()
- p1.join() #必须保证生产者全部生产完毕,才应该发送结束信号
- p2.join()
- p3.join()
- q.put(None) #有几个生产者就应该发送几次结束信号None
- q.put(None) #发送结束信号
- q.put(None) #发送结束信号
- print('主')
主进程在生产者生产完毕后发送结束信号None
其实我们的思路无非是发送结束信号而已,有另外一种队列提供了这种机制
- #JoinableQueue([maxsize]):这就像是一个Queue对象,但队列允许项目的使用者通知生成者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。
- #参数介绍:
- maxsize是队列中允许最大项数,省略则无大小限制。
- #方法介绍:
- JoinableQueue的实例p除了与Queue对象相同的方法之外还具有:
- q.task_done():使用者使用此方法发出信号,表示q.get()的返回项目已经被处理。如果调用此方法的次数大于从队列中删除项目的数量,将引发ValueError异常
- q.join():生产者调用此方法进行阻塞,直到队列中所有的项目均被处理。阻塞将持续到队列中的每个项目均调用q.task_done()方法为止
- from multiprocessing import Process,JoinableQueue
- import time,random,os
- def consumer(q):
- while True:
- res=q.get()
- time.sleep(random.randint(1,3))
- print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))
- q.task_done() #向q.join()发送一次信号,证明一个数据已经被取走了
- def producer(name,q):
- for i in range(10):
- time.sleep(random.randint(1,3))
- res='%s%s' %(name,i)
- q.put(res)
- print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))
- q.join()
- if __name__ == '__main__':
- q=JoinableQueue()
- #生产者们:即厨师们
- p1=Process(target=producer,args=('包子',q))
- p2=Process(target=producer,args=('骨头',q))
- p3=Process(target=producer,args=('泔水',q))
- #消费者们:即吃货们
- c1=Process(target=consumer,args=(q,))
- c2=Process(target=consumer,args=(q,))
- c1.daemon=True
- c2.daemon=True
- #开始
- p_l=[p1,p2,p3,c1,c2]
- for p in p_l:
- p.start()
- p1.join()
- p2.join()
- p3.join()
- print('主')
- #主进程等--->p1,p2,p3等---->c1,c2
- #p1,p2,p3结束了,证明c1,c2肯定全都收完了p1,p2,p3发到队列的数据
- #因而c1,c2也没有存在的价值了,应该随着主进程的结束而结束,所以设置成守护进程
Python 3 并发编程多进程之队列(推荐使用)的更多相关文章
- Python 3 并发编程多进程之进程同步(锁)
Python 3 并发编程多进程之进程同步(锁) 进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,竞争带来的结果就是错乱,如何控制,就是加锁处理. 1. ...
- Python 3 并发编程多进程之守护进程
Python 3 并发编程多进程之守护进程 主进程创建守护进程 其一:守护进程会在主进程代码执行结束后就终止 其二:守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemo ...
- Python之并发编程-多进程
目录 一.multiprocessiong模块介绍 二.Process类的介绍 三.进一步介绍(守护进程.锁.队列.管道.事件等) 1.守护进程 2.锁(同步锁.互斥锁) 3.信号量(了解) 4.队列 ...
- Python 3 并发编程多进程之进程池与回调函数
Python 3 进程池与回调函数 一.进程池 在利用Python进行系统管理的时候,特别是同时操作多个文件目录,或者远程控制多台主机,并行操作可以节约大量的时间.多进程是实现并发的手段之一,需要注意 ...
- Python 3 并发编程多进程之进程与线程
Python 3 进程与线程 进程即正在执行的一个过程.进程是对正在运行程序的一个抽象. 进程的概念起源于操作系统,是操作系统最核心的概念,也是操作系统提供的最古老也是最重要的抽象概念之一.操作系统的 ...
- python 3 并发编程多进程 paramiko 模块
python 3 paramiko模块 paramiko是一个用于做远程控制的模块,使用该模块可以对远程服务器进行命令或文件操作,值得一说的是,fabric和ansible内部的远程管理就是使用的pa ...
- python 并发编程 多进程 队列目录
python 并发编程 多进程 队列 python 并发编程 多进程 生产者消费者模型介绍 python 并发编程 多进程 生产者消费者模型总结 python 并发编程 多进程 JoinableQue ...
- python并发编程&多进程(二)
前导理论知识见:python并发编程&多进程(一) 一 multiprocessing模块介绍 python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_cou ...
- Python并发编程-多进程
Python并发编程-多进程 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.多进程相关概念 由于Python的GIL全局解释器锁存在,多线程未必是CPU密集型程序的好的选择. ...
随机推荐
- SQL中拆分字符串substr及统计字符出现频数replace用法实例讲解
一.拆分字符串为若干行 例一:要求将表emp中的'king'按照每行一个单词拆成四行 注意:substr(str,pos):截取pos位置开始的字符: substr(str,pos,len):从pos ...
- handlebars.js基础学习笔记
最近在帮学校做个课程网站,就有人推荐用jquery+ajax+handlebars做网站前端,刚接触发现挺高大上的,于是就把一些基础学习笔记记录下来啦. 1.引用文件: jquery.js文件下载:h ...
- Mac 下Versions的 svn无法上传 .a 文件的问题
Xcode自带的svn和Versions以及一些其它工具都默认ignore".a"文件. 解决办法有两个: 方法一:使用命令行添加文件([转]原文在这) 1.打开终端,输入cd,空 ...
- IQueryable和IEnumerable以及AsEnumerable()和ToList()的区别
注意:本文背景为 Linq to sql .文中ie指代IEnumerable,iq指代IQueryable. IQueryable 和 IEnumerable 的区别 IQueryable 延时执行 ...
- layer 不居中的坑爹问题
使用了该代码弹出一个图片.但居然不居中 var layer_index = layer.open({ type: 1, title: false, closeBtn: 0, area: '516px' ...
- Python基础(字符编码与文件处理)
一.了解字符编码的知识储备 1.计算机基础知识(三副图) 2.文本编辑器存取文件的原理(notepad++,Pycharm,word) 打开编辑器就启动了一个进程,是在内存中运行的,所以在编辑器写的内 ...
- AccessibilityService 官网介绍
AccessibilityService extends Service java.lang.Object ↳ android.content.Context ↳ android.co ...
- 《HBase in Action》 第二章节的学习总结 ---- HBase基本组成
准备工作:采用的HBase版本是:CDH4.5,其中的Hadoop版本是:hadoop-2.0.0-cdh4.5.0:HBase版本是:hbase-0.94.6-cdh4.5.0: Hbase的配置文 ...
- Python调用API接口的几种方式 数据库 脚本
Python调用API接口的几种方式 2018-01-08 gaoeb97nd... 转自 one_day_day... 修改 微信分享: 相信做过自动化运维的同学都用过API接口来完成某些动作.AP ...
- Agri-Net - poj 1258 (Prim 算法)
Time Limit: 1000MS Memory Limit: 10000K Total Submissions: 44373 Accepted: 18127 Description F ...