python并发编程之多进程1-----------互斥锁与进程间的通信
一、互斥锁
进程之间数据隔离,但是共享一套文件系统,因而可以通过文件来实现进程直接的通信,但问题是必须自己加锁处理。
注意:加锁的目的是为了保证多个进程修改同一块数据时,同一时间只能有一个修改,即串行的修改,没错,速度是慢了,牺牲了速度而保证了数据安全。
1.上厕所的小例子:你上厕所的时候肯定得锁门吧,有人来了看见门锁着,就会在外面等着,等你吧门开开出来的时候,下一个人才去上厕所。
from multiprocessing import Process,Lock
import os
import time
def work(mutex):
mutex.acquire()
print('task[%s] 上厕所'%os.getpid())
time.sleep(3)
print('task[%s] 上完厕所'%os.getpid())
mutex.release()
if __name__ == '__main__':
mutex = Lock()
p1 = Process(target=work,args=(mutex,))
p2 = Process(target=work,args=(mutex,))
p3 = Process(target=work,args=(mutex,))
p1.start()
p2.start()
p3.start()
p1.join()
p2.join()
p3.join()
print('主')
二、模拟抢票(也是利用了互斥锁的原理 :LOCK互斥锁)
import json
import time
import random
import os
from multiprocessing import Process,Lock
def chakan():
dic = json.load(open('piao',)) # 先查看票数,也就是打开那个文件
print('剩余票数:%s' % dic['count']) # 查看剩余的票数
def buy():
dic = json.load(open('piao',))
if dic['count']>0: #如果还有票
dic['count']-=1 #就修改里面的值-1
time.sleep(random.randint(1,3)) #执行里面买票的一系列操作就先不执行了,让睡一会代替(并且随机的睡)
json.dump(dic,open('piao','w'))
print('%s 购票成功' % os.getpid()) # 当前的那个id购票成功
def task(mutex): #抢票
chakan() #因为查看的时候大家都可以看到,不需要加锁
mutex.acquire() #加锁
buy() #买的时候必须一个一个的买,先等一个人买完了,后面的人在买
mutex.release() #取消锁
if __name__ == '__main__':
mutex = Lock()
for i in range(50):#让50个人去访问那个票数
p = Process(target=task,args=(mutex,))
p.start()
三、Process对象的其他属性
p.daemon :守护进程(必须在开启之前设置守护进程):如果父进程死,子进程p也死了
p.join:父进程等p执行完了才运行主进程,是父进程阻塞在原地,而p仍然在后台运行。
terminate:强制关闭。(确保p里面没有其他子进程的时候关闭,如果里面有子进程,你去用这个方法强制关闭了就会产生僵尸进程(打个比方:如果你老子挂了,你还没挂,那么就没人给你收尸了,啊哈哈))
is_alive:关闭进程的时候,不会立即关闭,所以is_alive立刻查看的结果可能还是存活
p.join():父进程在等p的结束,是父进程阻塞在原地,而p仍然在后台运行
p.name:查看名字
p.pid :查看id
我们可以简单介绍一下僵尸进程:
子进程运行完成,但是父进程迟迟没有进行回收,此时子进程实际上并没有退出,其仍然占用着系统资源,这样的⼦进程称为僵尸进程。
因为僵尸进程的资源一直未被回收,造成了系统资源的浪费,过多的僵尸进程将造成系统性能下降,所以应避免出现僵⼫进程。
from multiprocessing import Process
import os
import time
def work():
print('%s is working'%os.getpid())
time.sleep(3)
if __name__ == '__main__':
p1 =Process(target=work)
p2 =Process(target=work)
p3 =Process(target=work)
# p1.daemon = True
# p2.daemon = True #守护进程(守护他爹)
# p3.daemon = True #主进程死了子进程也死了(就不会执行子进程了)
p1.start()
p2.start()
p3.start() p3.join()
p2.join()
p1.join() #多个join就是在等花费时间最长的那个运行完就执行主程序了
print('主程序') # -了解方法---------------
# p1.terminate() #强制关闭进程
# time.sleep(3)
# print(p1.is_alive()) #看是不是还活着
# print(p1.name) #查看进程名字
# print(p1.pid) #查看id号
# print('主程序')
三、进程间的三种通信(IPC)方式:
方式一:队列(推荐使用)
进程彼此之间互相隔离,要实现进程间通信(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的
1.队列:队列类似于一条管道,元素先进先出
需要注意的一点是:队列都是在内存中操作,进程退出,队列清空,另外,队列也是一个阻塞的形态
2.队列分类
队列有很多种,但都依赖与模块queue
queue.Queue() #先进先出
queue.LifoQueue() #后进先出
queue.PriorityQueue() #优先级队列
queue.deque() #双线队列
创建队列的类(底层就是以管道和锁定的方式实现):
Queue([maxsize]):创建共享的进程队列,Queue是多进程安全的队列,
可以使用Queue实现多进程之间的数据传递。
参数介绍:
1 maxsize是队列中允许最大项数,省略则无大小限制。
方法介绍:
q.put方法用以插入数据到队列中,put方法还有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,该方法会阻塞timeout指定的时间,直到该队列有剩余的空间。如果超时,会抛出Queue.Full异常。如果blocked为False,但该Queue已满,会立即抛出Queue.Full异常。
q.get方法可以从队列读取并且删除一个元素。同样,get方法有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,那么在等待时间内没有取到任何元素,会抛出Queue.Empty异常。如果blocked为False,有两种情况存在,如果Queue有一个值可用,则立即返回该值,否则,如果队列为空,则立即抛出Queue.Empty异常. q.get_nowait():同q.get(False)
q.put_nowait():同q.put(False) q.empty():调用此方法时q为空则返回True,该结果不可靠,比如在返回True的过程中,如果队列中又加入了项目。
q.full():调用此方法时q已满则返回True,该结果不可靠,比如在返回True的过程中,如果队列中的项目被取走。
q.qsize():返回队列中目前项目的正确数量,结果也不可靠,理由同q.empty()和q.full()一样
应用:
# 1.可以往队列里放任意类型的
# 2.先进先出
from multiprocessing import Process,Queue
q= Queue(3)
q.put('first') #默认block=True
q.put('second')
q.put('third') print(q.get())
print(q.get())
print(q.get())
队列
生产者和消费者模型
在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。
为什么要使用生产者和消费者模式
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。
什么是生产者消费者模式
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。
基于队列实现生产者消费者模型
一个生产者和一个消费者(有两种方式)
1、q.put(None):生产者给放一个None进去
from multiprocessing import Process,Queue
import os
import time
import random
#首先得有生产者和消费者
# 生产者制造包子
'''这种用 q.put(None)放进去一个None的方法虽然解决了问题
但是如果有多个生产者多个消费者,或许框里面没有包子了但是
还有其他的食物呢,你就已经显示空着,这样也可以解决,就是不完美,
还可以用到JoinableQueue去解决'''
def producter(q):
for i in range(10):
time.sleep(2) #生产包子得有个过程,就先让睡一会
res = '包子%s'%i #生产了这么多的包子
q.put(res) #吧生产出来的包子放进框里面去
print('\033[44m%s制造了%s\033[0m'%(os.getpid(),res))
q.put(None) #只有生产者才知道什么时候就生产完了(放一个None进去说明此时已经生产完了)
# 消费者吃包子
def consumer(q):
while True:#假如消费者不断的吃
res = q.get()
if res is None:break #如果吃的时候框里面已经空了,就直接break了
time.sleep(random.randint(1,3))
print('\033[41m%s吃了%s\033[0m' % (os.getpid(),res))
if __name__ == '__main__':
q = Queue()
p1 = Process(target=producter,args=(q,))
p2 = Process(target=consumer,args=(q,))
p1.start()
p2.start()
p1.join()
p2.join() #等待执行完上面的进程,在去执行主
print('主')
生产者与消费者1
2、利用JoinableQueue
from multiprocessing import Process,JoinableQueue
import os
import time
import random
#首先得有生产者和消费者
# 消费者吃包子
def consumer(q):
'''消费者'''
while True:#假如消费者不断的吃
res = q.get()
time.sleep(random.randint(1,3))
print('\033[41m%s吃了%s\033[0m' % (os.getpid(),res))
q.task_done() #任务结束了(消费者告诉生产者,我已经吧东西取走了)
# 生产者制造包子
def producter(q):
'''生产者'''
for i in range(5):
time.sleep(2) #生产包子得有个过程,就先让睡一会
res = '包子%s'%i #生产了这么多的包子
q.put(res) #吧生产出来的包子放进框里面去
print('\033[44m%s制造了%s\033[0m'%(os.getpid(),res))
q.join() if __name__ == '__main__':
q = JoinableQueue()
p1 = Process(target=producter,args=(q,))
p2 = Process(target=consumer,args=(q,))
p2.daemon = True #在启动之前吧消费者设置成守护进程,p1结束了p2也就结束了
p1.start()
p2.start()
p1.join() #在等生产者结束(生产者结束后,就不制造包子了,那消费者一直在吃,就卡住了
#都不生产了还吃啥,就把消费者也结束了 )
#等待执行完上面的进程,在去执行主
print('主')
生产者和消费者2
多个生产者和多个消费者(有两种方式)
1、q.put(None):生产者给放一个None进去
2、利用JoinableQueue
from multiprocessing import Process,JoinableQueue
import os
import time
import random
#首先得有生产者和消费者
# 消费者吃包子
def consumer(q):
while True:
res = q.get()
time.sleep(random.randint(1,3))
print('\033[41m%s吃了%s\033[0m' % (os.getpid(),res))
q.task_done() #任务结束了(消费者告诉生产者,我已经吧东西取走了)
def product_baozi(q):
for i in range(5):
time.sleep(2)
res = '包子%s' % i
q.put(res)
print('\033[44m%s制造了%s\033[0m' % (os.getpid(), res))
q.join() #不用put(None) 了,在等q被取完。(如果数据没有被取完,生产者就不会结束掉)
def product_gutou(q):
for i in range(5):
time.sleep(2)
res = '骨头%s' % i
q.put(res)
print('\033[44m%s制造了%s\033[0m' % (os.getpid(), res))
q.join()
def product_doujiang(q):
for i in range(5):
time.sleep(2)
res = '豆浆%s' % i
q.put(res)
print('\033[44m%s制造了%s\033[0m' % (os.getpid(), res))
q.join() if __name__ == '__main__':
q = JoinableQueue()
# 生产者们:厨师们
p1 = Process(target=product_baozi,args=(q,))
p2 = Process(target=product_doujiang,args=(q,))
p3 = Process(target=product_gutou,args=(q,)) #消费者们:吃货们
p4 = Process(target=consumer,args=(q,))
p5 = Process(target=consumer,args=(q,))
p4.daemon = True
p5.daemon = True
# p1.start()
# p2.start()
# p3.start()
# p4.start()
# p5.start()
li = [p1,p2,p3,p4,p5]
for i in li:
i.start()
p1.join()
p2.join()
p3.join()
print('主')
多生产者与多消费2
方式二:管道(不推荐使用,了解即可)
管道相当于队列,但是管道不自动加锁
方式三:共享数据(不推荐使用,了解即可)
共享数据也没有自动加锁的功能,所以还是推荐用队列的。感兴趣的可以研究研究管道和共享数据
python并发编程之多进程1-----------互斥锁与进程间的通信的更多相关文章
- python并发编程之多进程1--(互斥锁与进程间的通信)
一.互斥锁 进程之间数据隔离,但是共享一套文件系统,因而可以通过文件来实现进程直接的通信,但问题是必须自己加锁处理. 注意:加锁的目的是为了保证多个进程修改同一块数据时,同一时间只能有一个修改,即串行 ...
- python并发编程之多进程1互斥锁与进程间的通信
一.互斥锁 进程之间数据隔离,但是共享一套文件系统,因而可以通过文件来实现进程直接的通信,但问题是必须自己加锁处理. 注意:加锁的目的是为了保证多个进程修改同一块数据时,同一时间只能有一个修改,即串行 ...
- python并发编程之多进程2-------------数据共享及进程池和回调函数
一.数据共享 1.进程间的通信应该尽量避免共享数据的方式 2.进程间的数据是独立的,可以借助队列或管道实现通信,二者都是基于消息传递的. 虽然进程间数据独立,但可以用过Manager实现数据共享,事实 ...
- python并发编程之多进程(三):共享数据&进程池
一,共享数据 展望未来,基于消息传递的并发编程是大势所趋 即便是使用线程,推荐做法也是将程序设计为大量独立的线程集合 通过消息队列交换数据.这样极大地减少了对使用锁定和其他同步手段的需求, 还可以扩展 ...
- Python之网路编程之-互斥锁与进程间的通信(IPC)及生产者消费者模型
一.互斥锁 进程之间数据隔离,但是共享一套文件系统,因而可以通过文件来实现进程直接的通信,但问题是必须自己加锁处理. 注意:加锁的目的是为了保证多个进程修改同一块数据时,同一时间只能有一个修改,即串行 ...
- Python并发编程__多进程
Python并发编程_多进程 multiprocessing模块介绍 python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大 ...
- Python进阶(4)_进程与线程 (python并发编程之多进程)
一.python并发编程之多进程 1.1 multiprocessing模块介绍 由于GIL的存在,python中的多线程其实并不是真正的多线程,如果想要充分地使用多核CPU的资源,在python中大 ...
- python并发编程02 /多进程、进程的创建、进程PID、join方法、进程对象属性、守护进程
python并发编程02 /多进程.进程的创建.进程PID.join方法.进程对象属性.守护进程 目录 python并发编程02 /多进程.进程的创建.进程PID.join方法.进程对象属性.守护进程 ...
- python并发编程之多进程2-(数据共享及进程池和回调函数)
一.数据共享 1.进程间的通信应该尽量避免共享数据的方式 2.进程间的数据是独立的,可以借助队列或管道实现通信,二者都是基于消息传递的. 虽然进程间数据独立,但可以用过Manager实现数据共享,事实 ...
随机推荐
- PHP7语法知识(二):流程控制语句、函数、字符串、数组
流程控制: 一.条件控制语句 1.if条件控制语句: 2.switch分支语句: 二.循环控制语句 1.while循环: 2.do while循环: 3.for循环: 4.foreach循环: 三.跳 ...
- 转载-HashMap1.8源码分析
原文地址-https://tech.meituan.com/2016/06/24/java-hashmap.html HashMap是Java程序员使用频率最高的用于映射(键值对)处理的数据类型.随着 ...
- 列出下面几项的URL并解释每部分代表的含义
列出下面几项的URL并解释每部分代表的含义 a.你的学校 b.你的学校的计算机科学系 c.你的老师的主页
- redis设置开机自启
开机自启动redis(其他服务类似) centos 7以上是用Systemd进行系统初始化的,Systemd 是 Linux 系统中最新的初始化系统(init),它主要的设计目标是克服 sysvini ...
- os及os.path练习题
查找目录下每个文件的数量(考察获取文件后缀名以及获取当前目录下文件方法) import os #获取目录下的所有文件 list = os.listdir('.') filetype = {} for ...
- P4070 [SDOI2016]生成魔咒
题目地址:P4070 [SDOI2016]生成魔咒 相信看到题目之后很多人跟我的思路是一样的-- 肯定要用 SA(P3809 [模板]后缀排序) 肯定要会求本质不同的子串个数(P2408 不同子串个数 ...
- 【转】Python用数据说明程序员需要掌握的技能
[转]Python用数据说明程序员需要掌握的技能 https://blog.csdn.net/HuangZhang_123/article/details/80497951 当下是一个大数据的时代,各 ...
- C#编写COM组件
1.新建一个类库项目 2.将Class1.cs改为我们想要的名字 问是否同时给类改名,确定 3.修改Properties目录下面的AssemblyInfo.cs ComVisible属性设置为True ...
- pl sql 中文乱码
一:查看oracle数据库的字符集编码: select * fromnls_database_parameters where parameter in ('NLS_LANGUAGE', 'NLS_T ...
- Windows10下Django虚拟环境配置和简单入门实例
环境win10家庭版64位 + python 3.5 + Django 1.8.2 1.创建virtualenv目录 开始/运行/cmd回车,进入cmd窗口,到自己指定的目录下创建virtualenv ...