python网络编程中互斥锁与进程之间的通信
一、互斥锁
进程之间数据隔离,但是共享一套文件系统,因而可以通过文件来实现进程直接的通信,但问题是必须自己加锁处理。
注意:加锁的目的是为了保证多个进程修改同一块数据时,同一时间只能有一个修改,即串行的修改,没错,速度是慢了,牺牲了速度而保证了数据安全。
1.上厕所的小例子:你上厕所的时候肯定得锁门吧,有人来了看见门锁着,就会在外面等着,等你吧门开开出来的时候,下一个人才去上厕所。
1 from multiprocessing import Process,Lock
2 import os
3 import time
4 def work(mutex):
5 mutex.acquire()
6 print('task[%s] 上厕所'%os.getpid())
7 time.sleep(3)
8 print('task[%s] 上完厕所'%os.getpid())
9 mutex.release()
10 if __name__ == '__main__':
11 mutex = Lock()
12 p1 = Process(target=work,args=(mutex,))
13 p2 = Process(target=work,args=(mutex,))
14 p3 = Process(target=work,args=(mutex,))
15 p1.start()
16 p2.start()
17 p3.start()
18 p1.join()
19 p2.join()
20 p3.join()
21 print('主')
二、模拟抢票(也是利用了互斥锁的原理 :LOCK互斥锁)
1 import json
2 import time
3 import random
4 import os
5 from multiprocessing import Process,Lock
6 def chakan():
7 dic = json.load(open('piao',)) # 先查看票数,也就是打开那个文件
8 print('剩余票数:%s' % dic['count']) # 查看剩余的票数
9 def buy():
10 dic = json.load(open('piao',))
11 if dic['count']>0: #如果还有票
12 dic['count']-=1 #就修改里面的值-1
13 time.sleep(random.randint(1,3)) #执行里面买票的一系列操作就先不执行了,让睡一会代替(并且随机的睡)
14 json.dump(dic,open('piao','w'))
15 print('%s 购票成功' % os.getpid()) # 当前的那个id购票成功
16 def task(mutex): #抢票
17 chakan() #因为查看的时候大家都可以看到,不需要加锁
18 mutex.acquire() #加锁
19 buy() #买的时候必须一个一个的买,先等一个人买完了,后面的人在买
20 mutex.release() #取消锁
21 if __name__ == '__main__':
22 mutex = Lock()
23 for i in range(50):#让50个人去访问那个票数
24 p = Process(target=task,args=(mutex,))
25 p.start()
三、Process对象的其他属性
p.daemon :守护进程(必须在开启之前设置守护进程):如果父进程死,子进程p也死了
p.join:父进程等p执行完了才运行主进程,是父进程阻塞在原地,而p仍然在后台运行。
terminate:强制关闭。(确保p里面没有其他子进程的时候关闭,如果里面有子进程,你去用这个方法强制关闭了就会产生僵尸进程(打个比方:如果你老子挂了,你还没挂,那么就没人给你收尸了,啊哈哈))
is_alive:关闭进程的时候,不会立即关闭,所以is_alive立刻查看的结果可能还是存活
p.join():父进程在等p的结束,是父进程阻塞在原地,而p仍然在后台运行
p.name:查看名字
p.pid :查看id
我们可以简单介绍一下僵尸进程:
子进程运行完成,但是父进程迟迟没有进行回收,此时子进程实际上并没有退出,其仍然占用着系统资源,这样的⼦进程称为僵尸进程。
因为僵尸进程的资源一直未被回收,造成了系统资源的浪费,过多的僵尸进程将造成系统性能下降,所以应避免出现僵⼫进程。
1 from multiprocessing import Process
2 import os
3 import time
4 def work():
5 print('%s is working'%os.getpid())
6 time.sleep(3)
7 if __name__ == '__main__':
8 p1 =Process(target=work)
9 p2 =Process(target=work)
10 p3 =Process(target=work)
11 # p1.daemon = True
12 # p2.daemon = True #守护进程(守护他爹)
13 # p3.daemon = True #主进程死了子进程也死了(就不会执行子进程了)
14 p1.start()
15 p2.start()
16 p3.start()
17
18 p3.join()
19 p2.join()
20 p1.join() #多个join就是在等花费时间最长的那个运行完就执行主程序了
21 print('主程序')
22
23 # -了解方法---------------
24 # p1.terminate() #强制关闭进程
25 # time.sleep(3)
26 # print(p1.is_alive()) #看是不是还活着
27 # print(p1.name) #查看进程名字
28 # print(p1.pid) #查看id号
29 # print('主程序')
三、进程间的三种通信(IPC)方式:
方式一:队列(推荐使用)
进程彼此之间互相隔离,要实现进程间通信(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的
1.队列:队列类似于一条管道,元素先进先出
需要注意的一点是:队列都是在内存中操作,进程退出,队列清空,另外,队列也是一个阻塞的形态
2.队列分类
队列有很多种,但都依赖与模块queue
queue.Queue() #先进先出
queue.LifoQueue() #后进先出
queue.PriorityQueue() #优先级队列
queue.deque() #双线队列
创建队列的类(底层就是以管道和锁定的方式实现):
1
2
|
Queue([maxsize]):创建共享的进程队列,Queue是多进程安全的队列, 可以使用Queue实现多进程之间的数据传递。 |
参数介绍:
1
|
1 maxsize是队列中允许最大项数,省略则无大小限制。 |
方法介绍:
1
2
3
4
5
6
7
8
9
|
q.put方法用以插入数据到队列中,put方法还有两个可选参数:blocked和timeout。如果blocked为 True (默认值),并且timeout为正值,该方法会阻塞timeout指定的时间,直到该队列有剩余的空间。如果超时,会抛出Queue.Full异常。如果blocked为 False ,但该Queue已满,会立即抛出Queue.Full异常。 q.get方法可以从队列读取并且删除一个元素。同样,get方法有两个可选参数:blocked和timeout。如果blocked为 True (默认值),并且timeout为正值,那么在等待时间内没有取到任何元素,会抛出Queue.Empty异常。如果blocked为 False ,有两种情况存在,如果Queue有一个值可用,则立即返回该值,否则,如果队列为空,则立即抛出Queue.Empty异常. q.get_nowait():同q.get( False ) q.put_nowait():同q.put( False ) q.empty():调用此方法时q为空则返回 True ,该结果不可靠,比如在返回 True 的过程中,如果队列中又加入了项目。 q.full():调用此方法时q已满则返回 True ,该结果不可靠,比如在返回 True 的过程中,如果队列中的项目被取走。 q.qsize():返回队列中目前项目的正确数量,结果也不可靠,理由同q.empty()和q.full()一样 |
应用:
# 1.可以往队列里放任意类型的
2 # 2.先进先出
3 from multiprocessing import Process,Queue
4 q= Queue(3)
5 q.put('first') #默认block=True
6 q.put('second')
7 q.put('third')
8
9 print(q.get())
10 print(q.get())
11 print(q.get())
生产者和消费者模型
在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。
为什么要使用生产者和消费者模式
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。
什么是生产者消费者模式
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。
基于队列实现生产者消费者模型
一个生产者和一个消费者(有两种方式)
1、q.put(None):生产者给放一个None进去
from multiprocessing import Process,Queue
2 import os
3 import time
4 import random
5 #首先得有生产者和消费者
6 # 生产者制造包子
7 '''这种用 q.put(None)放进去一个None的方法虽然解决了问题
8 但是如果有多个生产者多个消费者,或许框里面没有包子了但是
9 还有其他的食物呢,你就已经显示空着,这样也可以解决,就是不完美,
10 还可以用到JoinableQueue去解决'''
11 def producter(q):
12 for i in range(10):
13 time.sleep(2) #生产包子得有个过程,就先让睡一会
14 res = '包子%s'%i #生产了这么多的包子
15 q.put(res) #吧生产出来的包子放进框里面去
16 print('\033[44m%s制造了%s\033[0m'%(os.getpid(),res))
17 q.put(None) #只有生产者才知道什么时候就生产完了(放一个None进去说明此时已经生产完了)
18 # 消费者吃包子
19 def consumer(q):
20 while True:#假如消费者不断的吃
21 res = q.get()
22 if res is None:break #如果吃的时候框里面已经空了,就直接break了
23 time.sleep(random.randint(1,3))
24 print('\033[41m%s吃了%s\033[0m' % (os.getpid(),res))
25 if __name__ == '__main__':
26 q = Queue()
27 p1 = Process(target=producter,args=(q,))
28 p2 = Process(target=consumer,args=(q,))
29 p1.start()
30 p2.start()
31 p1.join()
32 p2.join() #等待执行完上面的进程,在去执行主
33 print('主') 2、利用JoinableQueue
from multiprocessing import Process,JoinableQueue
2 import os
3 import time
4 import random
5 #首先得有生产者和消费者
6 # 消费者吃包子
7 def consumer(q):
8 '''消费者'''
9 while True:#假如消费者不断的吃
10 res = q.get()
11 time.sleep(random.randint(1,3))
12 print('\033[41m%s吃了%s\033[0m' % (os.getpid(),res))
13 q.task_done() #任务结束了(消费者告诉生产者,我已经吧东西取走了)
14 # 生产者制造包子
15 def producter(q):
16 '''生产者'''
17 for i in range(5):
18 time.sleep(2) #生产包子得有个过程,就先让睡一会
19 res = '包子%s'%i #生产了这么多的包子
20 q.put(res) #吧生产出来的包子放进框里面去
21 print('\033[44m%s制造了%s\033[0m'%(os.getpid(),res))
22 q.join()
23
24 if __name__ == '__main__':
25 q = JoinableQueue()
26 p1 = Process(target=producter,args=(q,))
27 p2 = Process(target=consumer,args=(q,))
28 p2.daemon = True #在启动之前吧消费者设置成守护进程,p1结束了p2也就结束了
29 p1.start()
30 p2.start()
31 p1.join() #在等生产者结束(生产者结束后,就不制造包子了,那消费者一直在吃,就卡住了
32 #都不生产了还吃啥,就把消费者也结束了 )
33 #等待执行完上面的进程,在去执行主
34 print('主')
多个生产者和多个消费者(有两种方式)
1、q.put(None):生产者给放一个None进去
2、利用JoinableQueue
from multiprocessing import Process,JoinableQueue
2 import os
3 import time
4 import random
5 #首先得有生产者和消费者
6 # 消费者吃包子
7 def consumer(q):
8 while True:
9 res = q.get()
10 time.sleep(random.randint(1,3))
11 print('\033[41m%s吃了%s\033[0m' % (os.getpid(),res))
12 q.task_done() #任务结束了(消费者告诉生产者,我已经吧东西取走了)
13 def product_baozi(q):
14 for i in range(5):
15 time.sleep(2)
16 res = '包子%s' % i
17 q.put(res)
18 print('\033[44m%s制造了%s\033[0m' % (os.getpid(), res))
19 q.join() #不用put(None) 了,在等q被取完。(如果数据没有被取完,生产者就不会结束掉)
20 def product_gutou(q):
21 for i in range(5):
22 time.sleep(2)
23 res = '骨头%s' % i
24 q.put(res)
25 print('\033[44m%s制造了%s\033[0m' % (os.getpid(), res))
26 q.join()
27 def product_doujiang(q):
28 for i in range(5):
29 time.sleep(2)
30 res = '豆浆%s' % i
31 q.put(res)
32 print('\033[44m%s制造了%s\033[0m' % (os.getpid(), res))
33 q.join()
34
35 if __name__ == '__main__':
36 q = JoinableQueue()
37 # 生产者们:厨师们
38 p1 = Process(target=product_baozi,args=(q,))
39 p2 = Process(target=product_doujiang,args=(q,))
40 p3 = Process(target=product_gutou,args=(q,))
41
42 #消费者们:吃货们
43 p4 = Process(target=consumer,args=(q,))
44 p5 = Process(target=consumer,args=(q,))
45 p4.daemon = True
46 p5.daemon = True
47 # p1.start()
48 # p2.start()
49 # p3.start()
50 # p4.start()
51 # p5.start()
52 li = [p1,p2,p3,p4,p5]
53 for i in li:
54 i.start()
55 p1.join()
56 p2.join()
57 p3.join()
58 print('主')
方式二:管道(不推荐使用,了解即可)
管道相当于队列,但是管道不自动加锁
方式三:共享数据(不推荐使用,了解即可)
共享数据也没有自动加锁的功能,所以还是推荐用队列的。感兴趣的可以研究研究管道和共享数据
python网络编程中互斥锁与进程之间的通信的更多相关文章
- day34——僵尸进程和孤儿进程、互斥锁、进程之间的通信
day34 僵尸进程和孤儿进程 基于unix环境(linux,macOS) 主进程需要等待子进程结束之后,主进程才结束 主进程时刻监测子进程的运行状态,当子进程结束之后,一段时间之内,将子进程进行回收 ...
- python网络编程之互斥锁
标签(空格分隔): 互斥锁 进程之间的数据不共享,但是共享同一套文件系统,所以访问同一个文件,或者同一个打印终端,是没有问题的,而共享带来的问题就是竞争,竞争带来的结果就是错乱,如下: #并发运行,效 ...
- Python之网路编程之-互斥锁与进程间的通信(IPC)及生产者消费者模型
一.互斥锁 进程之间数据隔离,但是共享一套文件系统,因而可以通过文件来实现进程直接的通信,但问题是必须自己加锁处理. 注意:加锁的目的是为了保证多个进程修改同一块数据时,同一时间只能有一个修改,即串行 ...
- python 并发编程 多进程 互斥锁 目录
python 并发编程 多进程 互斥锁 模拟抢票 互斥锁与join区别
- python 并发编程 多进程 互斥锁
运行多进程 每个子进程的内存空间是互相隔离的 进程之间数据不能共享的 一 互斥锁 但是进程之间都是运行在一个操作系统上,进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终 ...
- python并发编程之多进程1--(互斥锁与进程间的通信)
一.互斥锁 进程之间数据隔离,但是共享一套文件系统,因而可以通过文件来实现进程直接的通信,但问题是必须自己加锁处理. 注意:加锁的目的是为了保证多个进程修改同一块数据时,同一时间只能有一个修改,即串行 ...
- python并发编程之多进程1互斥锁与进程间的通信
一.互斥锁 进程之间数据隔离,但是共享一套文件系统,因而可以通过文件来实现进程直接的通信,但问题是必须自己加锁处理. 注意:加锁的目的是为了保证多个进程修改同一块数据时,同一时间只能有一个修改,即串行 ...
- python 并发编程 多进程 互斥锁与join区别
互斥锁与join 互斥锁和join都可以把并发变成串行 以下代码是用join实现串行 from multiprocessing import Process import time import js ...
- python网络编程--线程递归锁RLock
一:死锁 所谓死锁:是指两个或两个以上的进程或线程在执行过程中,因争夺资源而造成的一种互相等待的现象,若无外力作用,它们都将无法推进下去.此时称系统处于死锁状态或系统产生了死锁,这些永远在互相等待的进 ...
随机推荐
- TAB切换与内容伸展闭合的结合
<!doctype html> <html lang="en"> <head> <meta charset="UTF-8&quo ...
- JQ的简单使用(基础)——————JQ
JQ基础--JQ的简单使用 <!DOCTYPE html> <html> <head> <meta charset="utf-8" /&g ...
- Vue 实现一个分页组件
实现分页组件要分三个部分 样式,逻辑,和引用 首先新建一个vue文件用来承载组件内容 第一步:构建样式 <template> <nav> <ul class=" ...
- 使用Tabulator遇到的问题
1.Tabulator好像是不支持ie,按照Tabulator文档引入,打开浏览器总是报缺少文件,换了谷歌果然好了. 2.编辑某一行的数据 代码: //Build Tabulator var tabl ...
- .NET Reactor使用教程(加密源代码示例)
更多:https://www.cnblogs.com/PiaoMiaoGongZi/category/1120300.html 1.打开 Eziriz .NET Reactor,主界面如图1所示: 图 ...
- centos 7 jdk
1.去oracle官网下载 2.查看当前环境中安装了那些jdk,如果有那么卸载掉 安装好的CentOS会自带OpenJdk,用命令 java -version ,会有下面的信息: java versi ...
- [python 学习] 编码
一.源文件编码(encoding: utf-8) 1. python 2.x 默认按ascii编码读取源文件,源码中出现了ascii不能表示的字符 "的",所以报错(3.x版本不报 ...
- tuple写法
name = ("wen") 类型为strname = ("wen",) 类型为tuple
- tensorflow函数介绍(3)
tf.nn.softmax_cross_entropy_with_logits(logits,labels) #其中logits为神经网络最后一层输出,labels为实际的标签,该函数返回经过soft ...
- 洛谷 P4300 BZOJ 1266 [AHOI2006]上学路线route
题目描述 可可和卡卡家住合肥市的东郊,每天上学他们都要转车多次才能到达市区西端的学校.直到有一天他们两人参加了学校的信息学奥林匹克竞赛小组才发现每天上学的乘车路线不一定是最优的. 可可:“很可能我们在 ...