昨日内容回顾

python中启动子进程
并发编程
并发 :多段程序看起来是同时运行的
ftp 网盘
不支持并发
socketserver 多进程 并发
异步
  两个进程 分别做不同的事情

创建新进程
join :阻塞 直到 子进程结束
守护进程 daemon :子(守护)进程随着主进程代码的结束而结束
进程之间数据隔离
使用类来开启一个进程 :自定义类 继承Process 重写run方法 传参数需要重写init
属性 pid name
方法 terminate is_alive

作业讲解:

socket聊天并发实例,使用原生socket的TCP协议,实现一个聊天的并发实例

先来一个简单的,单线程

server.py

  1. import socket
  2. sk = socket.socket()
  3. sk.bind(('127.0.0.1',9000))
  4. sk.listen()
  5. conn,addr = sk.accept()
  6. msg = conn.recv(1024).decode('utf-8')
  7. conn.send((msg+'sb').encode('utf-8'))
  8. print(msg)
  9. conn.close()

client.py

  1. import socket
  2. sk = socket.socket()
  3. sk.connect(('127.0.0.1',9000))
  4. inp = input('>>>').encode('utf-8')
  5. sk.send(inp)
  6. msg = sk.recv(1024).decode('utf-8')
  7. print(msg)
  8. sk.close()

先执行server.py,再执行client.py

输出:

>>>111
111sb

如果要多次会话呢?加一个while循环

server.py

  1. import socket
  2. sk = socket.socket()
  3. sk.bind(('127.0.0.1',9000))
  4. sk.listen()
  5. conn,addr = sk.accept()
  6. while True:
  7. msg = conn.recv(1024).decode('utf-8')
  8. conn.send((msg+'sb').encode('utf-8'))
  9. print(msg)
  10. conn.close()
  11. sk.close()

client.py

  1. import socket
  2. sk = socket.socket()
  3. sk.connect(('127.0.0.1',9000))
  4. while True:
  5. inp = input('>>>').encode('utf-8')
  6. sk.send(inp)
  7. msg = sk.recv(1024).decode('utf-8')
  8. print(msg)
  9. sk.close()

但是这样,只能一个客户端和服务器连接,再来一个客户端,就卡住了。

sk.accept()是阻塞的,那么,如何改成异步呢?

将server里面的recv和send放到一个函数里面,使用多线程调用

server.py

  1. import socket
  2. from multiprocessing import Process
  3. def chat(conn): # 聊天
  4. while True:
  5. msg = conn.recv(1024).decode('utf-8')
  6. print(msg)
  7. conn.send((msg + '_sb').encode('utf-8'))
  8. conn.close()
  9.  
  10. if __name__ == '__main__':
  11. sk = socket.socket()
  12. sk.bind(('127.0.0.1',9000))
  13. sk.listen()
  14. while True:
  15. conn,addr = sk.accept()
  16. Process(target=chat,args=[conn,]).start() # 异步
  17. sk.close()

先执行server.py,再执行client.py

多开几个客户端,也没问题

这就有点像接线员一样,接到客户打的电话,转给相应的人处理
这样,就有多个子进程,同时执行,实现多个客户端同时连接

进程同步(multiprocess.Lock、Semaphore、Event)

锁 —— multiprocess.Lock

通过刚刚的学习,我们千方百计实现了程序的异步,让多个任务可以同时在几个进程中并发处理,他们之间的运行没有顺序,一旦开启也不受我们控制。尽管并发编程让我们能更加充分的利用IO资源,但是也给我们带来了新的问题。

  当多个进程使用同一份数据资源的时候,就会引发数据安全或顺序混乱问题。

多进程抢占输出资源

  1. import os
  2. import time
  3. import random
  4. from multiprocessing import Process
  5.  
  6. def work(n):
  7. print('%s: %s is running' %(n,os.getpid()))
  8. time.sleep(random.random())
  9. print('%s:%s is done' %(n,os.getpid()))
  10.  
  11. if __name__ == '__main__':
  12. for i in range(3):
  13. p=Process(target=work,args=(i,))
  14. p.start()

执行输出:

1: 16548 is running
0: 1448 is running
2: 1096 is running
2:1096 is done
0:1448 is done
1:16548 is done

看输出结果,都是乱的。
如果想有序的执行,先run,再done,怎么办?
需要用到锁

  1. import os
  2. import time
  3. import random
  4. from multiprocessing import Lock
  5. from multiprocessing import Process
  6.  
  7. def work(n,lock):
  8. lock.acquire() #取得锁
  9. print('%s: %s is running' %(n,os.getpid()))
  10. time.sleep(random.random())
  11. print('%s:%s is done' %(n,os.getpid()))
  12. lock.release() #释放锁
  13.  
  14. if __name__ == '__main__':
  15. lock = Lock() #创建锁
  16. for i in range(5):
  17. p=Process(target=work,args=(i,lock))
  18. p.start()

执行输出:

0: 17468 is running
0:17468 is done
2: 16688 is running
2:16688 is done
1: 15984 is running
1:15984 is done
3: 15828 is running
3:15828 is done
4: 18156 is running
4:18156 is done

从结果上来看,结果就比较整齐了。先run,再done。结果是无序的

  1. #创建锁
  2. mutex = threading.Lock()
  3. #锁定
  4. mutex.acquire([timeout])#timeout是超时时间
  5. #释放
  6. mutex.release()
  7.  
  8. 其中,锁定方法acquire可以有一个超时时间的可选参数timeout。如果设定了timeout,则在超时后通过返回值可以判断是否得到了锁,从而可以进行一些其他的处理。

acquire参数

 锁的理论

acquire 表示拿锁
最先拿到钥匙的,它会做几件事情:
1.用钥匙开门
2.把钥匙带进门里
3.把门反锁

看下图

理论上来讲,进程一般是异步的
但是加了锁之后,就变成同步了

那么谁先拿到钥匙呢?满足以下2个条件:
1.操作系统先响应的进程
2.当时没有时间片轮询,刚好就是它

lock.acquire()和lock.release()之间的代码,表示被锁住了。

看join效果

  1. import os
  2. import time
  3. import random
  4. from multiprocessing import Process
  5.  
  6. def work(n):
  7. print('%s: %s is running' %(n,os.getpid()))
  8. time.sleep(random.random())
  9. print('%s:%s is done' %(n,os.getpid()))
  10.  
  11. if __name__ == '__main__':
  12. for i in range(5):
  13. p=Process(target=work,args=(i,))
  14. p.start()
  15. p.join()

执行输出:

0: 17348 is running
0:17348 is done
1: 18164 is running
1:18164 is done
2: 18160 is running
2:18160 is done
3: 17652 is running
3:17652 is done
4: 8340 is running
4:8340 is done

如果锁加在进程的开始和结束,参考work函数,它是同步的
join也是同步的,但是,他们之间的区别在于
锁执行时是无序的,join是有序的

由并发变成了串行,牺牲了运行效率,但避免了竞争。
上面这种情况虽然使用加锁的形式实现了顺序的执行,但是程序又重新变成串行了,这样确实会浪费了时间,却保证了数据的安全。

总结:

同步控制:
只要用到了锁 锁之间的代码就会变成同步的
锁 :控制一段代码 同一时间 只能被一个进程执行

抢票的例子:

比如12306,大家都经历过
模拟数据库,创建一个文件ticket,内容如下:

  1. {"count":1}

注意一定要用双引号,不然json无法识别

主程序代码如下:

  1. import json
  2. from multiprocessing import Process
  3.  
  4. def check_ticket(i):
  5. with open('ticket') as f:
  6. ticket_count = json.load(f)
  7. print('person%s'%i,ticket_count['count'])
  8.  
  9. if __name__ == '__main__':
  10. for i in range(5):
  11. Process(target=check_ticket,args=(i,)).start()

执行输出:

person1 1
person0 1
person3 1
person2 1
person4 1

开始买票,买票的时候,可能有网络延时
收到请求之后,从数据库中读取数据
当你发票还有余票时,把票减少这件事情记录下来
中间会经历网络延时

  1. import json
  2. import time
  3. import random
  4. from multiprocessing import Process
  5.  
  6. def buy_ticket(i): # 购票
  7. with open('ticket') as f: # 读取文件
  8. tick_count = json.load(f) # 反序列化
  9. time.sleep(random.random()) # 读取延时
  10. if tick_count['count'] > 0: # 当余票小于0时
  11. print('person%s购票成功'%i)
  12. tick_count['count'] -= 1 # 票数减1
  13. else:
  14. print('余票不足,person%s购票失败'%i)
  15. time.sleep(random.random()) # 写入延时
  16. with open('ticket','w') as f:
  17. json.dump(tick_count,f) # 写入文件
  18.  
  19. if __name__ == '__main__':
  20. for i in range(5):
  21. Process(target=buy_ticket,args=(i,)).start()

模拟这2次延时
是因为服务器和数据库不在一台机器上面,它们之间交互数据,必然有延时

上面的代码只模拟了读取延时和写入延时,没有模拟请求延时

执行输出:

person3购票成功
person0购票成功
person4购票成功
person1购票成功
person2购票成功

从输出结果上来看,库存只有1张票,但是5个人都购票成功了。这显然是不合理的!

这就造成了数据不安全

怎么解决呢?加锁

  1. import json
  2. import time
  3. import random
  4. from multiprocessing import Process,Lock
  5.  
  6. def buy_ticket(i,lock): # 购票
  7. lock.acquire() #取得锁
  8. with open('ticket') as f: # 读取文件
  9. tick_count = json.load(f) # 反序列化
  10. time.sleep(random.random()) # 读取延时
  11. if tick_count['count'] > 0: # 当余票小于0时
  12. print('person%s购票成功'%i)
  13. tick_count['count'] -= 1 # 票数减1
  14. else:
  15. print('余票不足,person%s购票失败'%i)
  16. time.sleep(random.random()) # 写入延时
  17. with open('ticket','w') as f:
  18. json.dump(tick_count,f) # 写入文件
  19. lock.release() #释放锁
  20.  
  21. if __name__ == '__main__':
  22. lock = Lock() #创建锁
  23. for i in range(5): # 模拟5个用户抢票
  24. Process(target=buy_ticket,args=(i,lock)).start()

将文件ticket的count数字改为1

  1. {"count": 1}

执行程序输出:

person0购票成功
余票不足,person1购票失败
余票不足,person2购票失败
余票不足,person3购票失败

从结果上来看,是正确的。保证了数据的安全性。

查数据,不涉及数据安全,因为没有修改。

总结:

  1. #加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。
  2. 虽然可以用文件共享数据实现进程间通信,但问题是:
  3. 1.效率低(共享数据基于文件,而文件是硬盘上的数据)
  4. 2.需要自己加锁处理
  5.  
  6. #因此我们最好找寻一种解决方案能够兼顾:1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。
  7. 队列和管道都是将数据存放于内存中
  8. 队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,
  9. 我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。

信号量 —— multiprocess.Semaphore(了解)

  1. 互斥锁同时只允许一个线程更改数据,而信号量Semaphore是同时允许一定数量的线程更改数据
  2. 假设商场里有4个迷你唱吧,所以同时可以进去4个人,如果来了第五个人就要在外面等待,等到有人出来才能再进去玩。
  3. 实现:
  4. 信号量同步基于内部计数器,每调用一次acquire(),计数器减1;每调用一次release(),计数器加1.当计数器为0时,acquire()调用被阻塞。这是迪科斯彻(Dijkstra)信号量概念P()和V()的Python实现。信号量同步机制适用于访问像服务器这样的有限资源。
  5. 信号量与进程池的概念很像,但是要区分开,信号量涉及到加锁的概念

信号量介绍Semaphore

上面讲的锁一个,现在锁变成一串了,数量由你来控制

下面有一个小KTV,只能容纳4个人,第5个人,就没有钥匙了

先不用信号量

  1. #KTV 4个人
  2. import time
  3. import random
  4. from multiprocessing import Process,Semaphore
  5.  
  6. def ktv(i):
  7. print('person %s 进来唱歌了'%i)
  8. time.sleep(random.randint(1,5))
  9. print('person %s 从ktv出去了'%i)
  10.  
  11. if __name__ == '__main__':
  12. for i in range(6): # 模拟6个人
  13. Process(target=ktv,args=(i,)).start()

执行输出:

person 0 进来唱歌了
person 1 进来唱歌了
person 2 进来唱歌了
person 3 进来唱歌了
person 4 进来唱歌了
person 5 进来唱歌了
person 3 从ktv出去了
person 4 从ktv出去了
person 2 从ktv出去了
person 1 从ktv出去了
person 0 从ktv出去了
person 5 从ktv出去了

结果是有问题的,6个人,都可以进去

使用信号量来实现

  1. #KTV 4个人
  2. import time
  3. import random
  4. from multiprocessing import Process,Semaphore
  5.  
  6. def ktv(i,sem):
  7. sem.acquire() #取得锁
  8. print('person %s 进来唱歌了'%i)
  9. time.sleep(random.randint(1,5))
  10. print('person %s 从ktv出去了'%i)
  11. sem.release() #释放锁
  12.  
  13. if __name__ == '__main__':
  14. sem = Semaphore(4) #初始化信号量,数量为4
  15. for i in range(6): # 模拟6个人
  16. Process(target=ktv,args=(i,sem)).start()

执行输出:

在同一时间,最多有4个人进去

acquire()是一个阻塞行为

信号量和锁有点类似
那么它们之间的区别在于:
信号量,相当于计数器

它是锁+计数器
调用acquire() 计数器-1
当计数器到 0 时,再调用 acquire() 就会阻塞,直到其他线程来调用release()
调用release() 计数器+1

事件 —— multiprocess.Event(了解)

  1. python线程的事件用于主线程控制其他线程的执行,事件主要提供了三个方法 setwaitclear
  2.  
  3. 事件处理的机制:全局定义了一个“Flag”,如果“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,如果“Flag”值为True,那么event.wait 方法时便不再阻塞。
  4.  
  5. clear:将“Flag”设置为False
  6. set:将“Flag”设置为True

事件介绍

著名的计算机模型:红绿灯
车 比方是一个进程,wait() 等红灯
根据状态变化,wait遇到true信号,就非阻塞
遇到False,就阻塞
交通灯 也是有一个进程 红灯->False 绿灯->True

这里没有黄灯

事件有几个方法:

wait的方法 根据一个状态来决定自己是否要阻塞
状态相关的方法
  set 将状态改为True
  clear 将状态改为False
  is_set 判断当前的状态是否为True

先来看几行代码

  1. from multiprocessing import Event
  2.  
  3. e = Event() #创建一个事件的对象
  4. print(e.is_set()) # 在事件的创世之初,状态为False

执行输出: False

在看一个列子

  1. from multiprocessing import Event
  2.  
  3. e = Event() #创建一个事件的对象
  4. print(e.is_set()) # 在事件的创世之初,状态为False
  5. e.wait()
  6. print('1')

执行输出: False,然后程序一致卡着

为啥呢?因为状态值为 False,那么当程序执行 event.wait 方法时就会阻塞

再来

  1. from multiprocessing import Event
  2.  
  3. e = Event() #创建一个事件的对象
  4. print(e.is_set()) # 在事件的创世之初,状态为False
  5. e.set() # 将状态设置为True
  6. e.wait()
  7. print(e.is_set()) # 查看状态
  8. print('1')

执行输出:

False
True
1

很快就输出了,说明没有阻塞

wait是否阻塞,取决于当前的状态

模拟红绿灯

  1. import time
  2.  
  3. def traffic_light():
  4. while True:
  5. print('红灯亮')
  6. time.sleep(2)
  7. print('绿灯亮')
  8. time.sleep(2)
  9. break
  10.  
  11. traffic_light()

执行输出:

红灯亮
绿灯亮

为了好看一点,加点颜色

  1. import time
  2.  
  3. def traffic_light():
  4. while True:
  5. print('\033[1;31m红灯亮\033[0m')
  6. time.sleep(2)
  7. print('\033[1;32m绿灯亮\033[0m')
  8. time.sleep(2)
  9. break
  10.  
  11. traffic_light()

执行输出:

输出挺专业的哈

下面来创建车

  1. import time
  2. from multiprocessing import Process,Event
  3.  
  4. def traffic_light():
  5. while True:
  6. print('\033[1;31m红灯亮\033[0m')
  7. time.sleep(2)
  8. print('\033[1;32m绿灯亮\033[0m')
  9. time.sleep(2)
  10. break
  11.  
  12. def car(i):
  13. print('car%s通过路口'%i)
  14.  
  15. if __name__ == '__main__':
  16. for i in range(1,6): # 创建5辆车
  17. Process(target=car,args=(i,)).start()

执行输出:

car1通过路口
car2通过路口
car3通过路口
car5通过路口
car4通过路口

现在还没有红绿灯,加一个红绿灯进程

  1. import time
  2. from multiprocessing import Process,Event
  3.  
  4. def traffic_light():
  5. while True:
  6. print('\033[1;31m红灯亮\033[0m')
  7. time.sleep(2)
  8. print('\033[1;32m绿灯亮\033[0m')
  9. time.sleep(2)
  10. break
  11.  
  12. def car(i):
  13. print('car%s通过路口'%i)
  14.  
  15. if __name__ == '__main__':
  16. Process(target=traffic_light).start()
  17. for i in range(1,6):
  18. Process(target=car,args=(i,)).start()

执行输出:

发现5辆车都闯红灯了...

加一个事件:

  1. import time
  2. import random
  3. from multiprocessing import Process,Event
  4.  
  5. def traffic_light(e,count): # 交通灯
  6. while True:
  7. while True:
  8. # 事件在创建的时候,e的状态是False,相当于程序中的红灯
  9. print('\033[1;31m红灯亮\033[0m')
  10. time.sleep(2) # 红灯亮2秒
  11. # 这里e.is_set()是False,所以not e.is_set()就是True
  12. if not e.is_set():e.set() # 判断为True时,变绿灯
  13. print('\033[1;32m绿灯亮\033[0m')
  14. time.sleep(2) # 绿灯亮2秒
  15. # 这里e.is_set()是True
  16. if e.is_set():e.clear() # 判断为True时,将状态设置为False
  17. count += 1 # 自增1
  18. if count == 5: # 判断为5时,跳出内层循环
  19. break
  20. break #跳出内层循环
  21.  
  22. def car(i,e): # 汽车,感知状态的变化
  23. if not e.is_set(): # 当前这个事件状态是False
  24. print('car%s正在等待'%i) # 这辆车正在等待通过路口
  25. e.wait() # 阻塞,直到有一个e.set行为。正在等红灯
  26. print('car%s通过路口'%i) # 等待状态为True,才能通过
  27.  
  28. if __name__ == '__main__':
  29. e = Event() # 创建事件,默认状态为False
  30. Process(target=traffic_light,args=(e,0)).start() # 启动红灯进程
  31. for i in range(1,6): # 模拟5个人
  32. time.sleep(random.randrange(0,5,2)) # 大于等于0且小于5之间的奇数
  33. Process(target=car,args=(i,e)).start() # 启动交通灯进程

执行输出:

从结果上来看,挺完美的。

每辆车独立占用一个进程,交通灯也是一个进程,之前学的进程是隔离的,那么car进程为什么能感知到?

是因为进程之间用了socket网络通信

内部有一套通讯机制

注意:e.is_set() 状态不是固定的,每隔2秒,会变化一次。

控制信号灯的子进程、事件对象e、car子进程,都依赖于状态

wait只判断True和False
也就是红灯停,绿灯行
等待2秒之后,就切换一个状态

相当于执行了下面的代码:

  1. flag = False
  2. while True:
  3. if flag is True:
  4. flag = False
  5. else:
  6. flag = True
  7. time.sleep(2)

  

进程间通信——队列和管道(multiprocess.Queue、multiprocess.Pipe)

进程间通信

IPC(Inter-Process Communication)

IPC说的就是进程之间的通信,它只是缩写而已

队列

概念介绍

之前学的queue和现在要提到的queue之间的区别

import queue
它能维护一个先进先出的秩序,它不能进行IPC
from multiprocessing import Queue,Process
能维护一个先进先出的秩序,也能进行IPC

创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。

遵循先进先出原则

  1. Queue([maxsize])
  2. 创建共享的进程队列。
  3. 参数 maxsize是队列中允许的最大项数。如果省略此参数,则无大小限制。
  4. 底层队列使用管道和锁定实现。
  1. Queue([maxsize])
  2. 创建共享的进程队列。maxsize是队列中允许的最大项数。如果省略此参数,则无大小限制。底层队列使用管道和锁定实现。另外,还需要运行支持线程以便队列中的数据传输到底层管道中。
  3. Queue的实例q具有以下方法:
  4.  
  5. q.get( [ block [ ,timeout ] ] )
  6. 返回q中的一个项目。如果q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 如果设置为False,将引发Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。如果在制定的时间间隔内没有项目变为可用,将引发Queue.Empty异常。
  7.  
  8. q.get_nowait( )
  9. q.get(False)方法。
  10.  
  11. q.put(item [, block [,timeout ] ] )
  12. item放入队列。如果队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。如果设置为False,将引发Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引发Queue.Full异常。
  13.  
  14. q.qsize()
  15. 返回队列中目前项目的正确数量。此函数的结果并不可靠,因为在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引发NotImplementedError异常。
  16.  
  17. q.empty()
  18. 如果调用此方法时 q为空,返回True。如果其他进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。
  19.  
  20. q.full()
  21. 如果q已满,返回为True. 由于线程的存在,结果也可能是不可靠的(参考q.empty()方法)。。

方法介绍

  1. q.close()
  2. 关闭队列,防止队列中加入更多数据。调用此方法时,后台线程将继续写入那些已入队列但尚未写入的数据,但将在此方法完成时马上关闭。如果q被垃圾收集,将自动调用此方法。关闭队列不会在队列使用者中生成任何类型的数据结束信号或异常。例如,如果某个使用者正被阻塞在get()操作上,关闭生产者中的队列不会导致get()方法返回错误。
  3.  
  4. q.cancel_join_thread()
  5. 不会再进程退出时自动连接后台线程。这可以防止join_thread()方法阻塞。
  6.  
  7. q.join_thread()
  8. 连接队列的后台线程。此方法用于在调用q.close()方法后,等待所有队列项被消耗。默认情况下,此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread()方法可以禁止这种行为。

其他方法(了解)

简单用法:

  1. from multiprocessing import Process,Queue
  2. q = Queue() #创建共享的进程队列
  3. q.put(1) # 将一个值放入队列
  4. q.put(2)
  5. q.put('aaa')
  6. print(q.get()) # 返回q中的一个项目

执行输出:1

因为1先进去,所以它先出来。

  1. from multiprocessing import Process,Queue
  2.  
  3. def wahaha(q):
  4. print(q.get())
  5.  
  6. if __name__ == '__main__':
  7. q = Queue() #创建共享的进程队列
  8. Process(target=wahaha,args=(q,)).start()
  9. q.put(1)

执行输出:1

因为主程序先执行

双向通信

既能取值,也能增加值

  1. import time
  2. from multiprocessing import Process,Queue
  3.  
  4. def wahaha(q):
  5. print(q.get()) # 取值
  6. q.put('aaa') # 增加一个aaa
  7.  
  8. if __name__ == '__main__':
  9. q = Queue() #创建共享的进程队列
  10. Process(target=wahaha,args=(q,)).start()
  11. q.put(1)
  12. time.sleep(0.5) # 等待0.5秒,让子程序执行完
  13. print(q.get()) # 取值

执行输出:

1
aaa

  1. '''
  2. multiprocessing模块支持进程间通信的两种主要形式:管道和队列
  3. 都是基于消息传递实现的,但是队列接口
  4. '''
  5.  
  6. from multiprocessing import Queue
  7. q=Queue(3)
  8.  
  9. #put ,get ,put_nowait,get_nowait,full,empty
  10. q.put(3)
  11. q.put(3)
  12. q.put(3)
  13. # q.put(3) # 如果队列已经满了,程序就会停在这里,等待数据被别人取走,再将数据放入队列。
  14. # 如果队列中的数据一直不被取走,程序就会永远停在这里。
  15. try:
  16. q.put_nowait(3) # 可以使用put_nowait,如果队列满了不会阻塞,但是会因为队列满了而报错。
  17. except: # 因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去,但是会丢掉这个消息。
  18. print('队列已经满了')
  19.  
  20. # 因此,我们再放入数据之前,可以先看一下队列的状态,如果已经满了,就不继续put了。
  21. print(q.full()) #满了
  22.  
  23. print(q.get())
  24. print(q.get())
  25. print(q.get())
  26. # print(q.get()) # 同put方法一样,如果队列已经空了,那么继续取就会出现阻塞。
  27. try:
  28. q.get_nowait(3) # 可以使用get_nowait,如果队列满了不会阻塞,但是会因为没取到值而报错。
  29. except: # 因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去。
  30. print('队列已经空了')
  31.  
  32. print(q.empty()) #空了

单看队列用法

上面这个例子还没有加入进程通信,只是先来看看队列为我们提供的方法,以及这些方法的使用和现象。

  1. import time
  2. from multiprocessing import Process, Queue
  3.  
  4. def f(q):
  5. q.put([time.asctime(), 'from Eva', 'hello']) #调用主函数中p进程传递过来的进程参数 put函数为向队列中添加一条数据。
  6.  
  7. if __name__ == '__main__':
  8. q = Queue() #创建一个Queue对象
  9. p = Process(target=f, args=(q,)) #创建一个进程
  10. p.start()
  11. print(q.get())
  12. p.join()

子进程发送数据给父进程

上面是一个queue的简单应用,使用队列q对象调用get函数来取得队列中最先进入的数据。 接下来看一个稍微复杂一些的例子:

  1. import os
  2. import time
  3. import multiprocessing
  4.  
  5. # 向queue中输入数据的函数
  6. def inputQ(queue):
  7. info = str(os.getpid()) + '(put):' + str(time.asctime())
  8. queue.put(info)
  9.  
  10. # 向queue中输出数据的函数
  11. def outputQ(queue):
  12. info = queue.get()
  13. print ('%s%s\033[32m%s\033[0m'%(str(os.getpid()), '(get):',info))
  14.  
  15. # Main
  16. if __name__ == '__main__':
  17. multiprocessing.freeze_support()
  18. record1 = [] # store input processes
  19. record2 = [] # store output processes
  20. queue = multiprocessing.Queue(3)
  21.  
  22. # 输入进程
  23. for i in range(10):
  24. process = multiprocessing.Process(target=inputQ,args=(queue,))
  25. process.start()
  26. record1.append(process)
  27.  
  28. # 输出进程
  29. for i in range(10):
  30. process = multiprocessing.Process(target=outputQ,args=(queue,))
  31. process.start()
  32. record2.append(process)
  33.  
  34. for p in record1:
  35. p.join()
  36.  
  37. for p in record2:
  38. p.join()

批量生产数据放入队列再批量获取结果 x

生产者消费者模型

在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。

为什么要使用生产者和消费者模式

在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。

什么是生产者消费者模式

生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。

生产者消费者模型
消费者 消费数据 吃包子
生产者 产生数据的人 做包子

假如生产了10个包子,但是来了15个人,供不应求了。

这就产生了供销矛盾,那怎么解决呢?

增加做包子的人
或者采用同步模式 :做一个包子 卖一包子

再举一个例子:

生产数据 在淘宝买东西 --- 产生消费者行为数据
消费数据 阿里巴巴 --- 即时性要求非常高 必须要快速把用户生产的数据消费完

看下图

笼屉,只能放100个包子

如果蒸包子的数量过多,没人买了,那么就需要减少蒸包子的人

如果蒸包子的根据买包子的人,来生产包子,就比较完美了

queue队列就是笼屉

基于队列实现生产者消费者模型

举例

  1. import time
  2. import random
  3. from multiprocessing import Process,Queue
  4.  
  5. def producer(q): #生产者
  6. for i in range(5): # 生产5个包子
  7. time.sleep(random.random()) # 模拟生产包子时间
  8. q.put('包子%s'%i)
  9.  
  10. def consumer(q): # 消费者
  11. for i in range(5): # 5个消费者
  12. print(q.get()) # 买一个包子
  13. time.sleep(random.random()) # 模拟吃包子时间
  14.  
  15. if __name__ == '__main__':
  16. q = Queue() #创建共享的进程队列
  17. p1 = Process(target=producer,args=(q,))
  18. p2 = Process(target=consumer, args=(q,))
  19. p1.start() # 启动进程
  20. p2.start()

执行输出:

包子0
包子1
包子2
包子3
包子4

增加颜色,显示更明显

  1. import time
  2. import random
  3. from multiprocessing import Process,Queue
  4.  
  5. def producer(q): #生产者
  6. for i in range(1,6): # 生产5个包子
  7. time.sleep(random.random()) # 模拟生产包子时间
  8. print('\033[1;31m生产了包子%s\033[0m' % i)
  9.  
  10. def consumer(q): # 消费者
  11. for i in range(1,6): # 5个消费者
  12. print('\033[1;32m消费了包子%s\033[0m' % i)
  13. time.sleep(random.uniform(1,2)) # 模拟吃包子时间
  14.  
  15. if __name__ == '__main__':
  16. q = Queue() #创建共享的进程队列
  17. p1 = Process(target=producer,args=(q,))
  18. p2 = Process(target=consumer, args=(q,))
  19. p1.start() # 启动进程
  20. p2.start()

执行输出:

发现供需不平衡

需要改变供需平衡

  1. import time
  2. import random
  3. from multiprocessing import Process,Queue
  4.  
  5. def producer(q): #生产者
  6. for i in range(1,11): # 生产5个包子
  7. time.sleep(random.random()) # 模拟生产包子时间
  8. q.put('包子%s'%i) # 生产包子,将包子放入队列,比如包子1
  9. print('\033[1;31m生产了包子%s\033[0m' % i)
  10.  
  11. def consumer(q): # 消费者
  12. for i in range(1,6): # 5个消费者
  13. food = q.get() # 买一个包子
  14. print('\033[1;32m消费了包子%s\033[0m' % food)
  15. time.sleep(random.uniform(1,2)) # 模拟吃包子时间
  16.  
  17. if __name__ == '__main__':
  18. q = Queue() #创建共享的进程队列
  19. p1 = Process(target=producer,args=(q,))
  20. p2 = Process(target=consumer, args=(q,))
  21. p3 = Process(target=consumer, args=[q]) # 增加一个消费者进程
  22. p1.start() # 启动进程
  23. p2.start()
  24. p3.start()

执行输出:

上面是通过消费者和包子数量对等,解决供需平衡问题的。

其他例子:

基于队列实现生产者消费者模型
  1. from multiprocessing import Process,Queue
  2. import time,random,os
  3. def consumer(q):
  4. while True:
  5. res=q.get()
  6. time.sleep(random.randint(1,3))
  7. print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))
  8.  
  9. def producer(q):
  10. for i in range(10):
  11. time.sleep(random.randint(1,3))
  12. res='包子%s' %i
  13. q.put(res)
  14. print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))
  15.  
  16. if __name__ == '__main__':
  17. q=Queue()
  18. #生产者们:即厨师们
  19. p1=Process(target=producer,args=(q,))
  20.  
  21. #消费者们:即吃货们
  22. c1=Process(target=consumer,args=(q,))
  23.  
  24. #开始
  25. p1.start()
  26. c1.start()
  27. print('主')

基于队列实现生产者消费者模型

此时的问题是主进程永远不会结束,原因是:生产者p在生产完后就结束了,但是消费者c在取空了q之后,则一直处于死循环中且卡在q.get()这一步。

解决方式无非是让生产者在生产完毕后,往队列中再发一个结束信号,这样消费者在接收到结束信号后就可以break出死循环。

  1. from multiprocessing import Process,Queue
  2. import time,random,os
  3. def consumer(q):
  4. while True:
  5. res=q.get()
  6. if res is None:break #收到结束信号则结束
  7. time.sleep(random.randint(1,3))
  8. print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))
  9.  
  10. def producer(q):
  11. for i in range(10):
  12. time.sleep(random.randint(1,3))
  13. res='包子%s' %i
  14. q.put(res)
  15. print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))
  16. q.put(None) #发送结束信号
  17. if __name__ == '__main__':
  18. q=Queue()
  19. #生产者们:即厨师们
  20. p1=Process(target=producer,args=(q,))
  21.  
  22. #消费者们:即吃货们
  23. c1=Process(target=consumer,args=(q,))
  24.  
  25. #开始
  26. p1.start()
  27. c1.start()
  28. print('主')

改良版——生产者消费者模型

注意:结束信号None,不一定要由生产者发,主进程里同样可以发,但主进程需要等生产者结束后才应该发送该信号

  1. from multiprocessing import Process,Queue
  2. import time,random,os
  3. def consumer(q):
  4. while True:
  5. res=q.get()
  6. if res is None:break #收到结束信号则结束
  7. time.sleep(random.randint(1,3))
  8. print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))
  9.  
  10. def producer(q):
  11. for i in range(2):
  12. time.sleep(random.randint(1,3))
  13. res='包子%s' %i
  14. q.put(res)
  15. print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))
  16.  
  17. if __name__ == '__main__':
  18. q=Queue()
  19. #生产者们:即厨师们
  20. p1=Process(target=producer,args=(q,))
  21.  
  22. #消费者们:即吃货们
  23. c1=Process(target=consumer,args=(q,))
  24.  
  25. #开始
  26. p1.start()
  27. c1.start()
  28.  
  29. p1.join()
  30. q.put(None) #发送结束信号
  31. print('主')

主进程在生产者生产完毕后发送结束信号None

但上述解决方式,在有多个生产者和多个消费者时,我们则需要用一个很low的方式去解决

  1. from multiprocessing import Process,Queue
  2. import time,random,os
  3. def consumer(q):
  4. while True:
  5. res=q.get()
  6. if res is None:break #收到结束信号则结束
  7. time.sleep(random.randint(1,3))
  8. print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res))
  9.  
  10. def producer(name,q):
  11. for i in range(2):
  12. time.sleep(random.randint(1,3))
  13. res='%s%s' %(name,i)
  14. q.put(res)
  15. print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res))
  16.  
  17. if __name__ == '__main__':
  18. q=Queue()
  19. #生产者们:即厨师们
  20. p1=Process(target=producer,args=('包子',q))
  21. p2=Process(target=producer,args=('骨头',q))
  22. p3=Process(target=producer,args=('泔水',q))
  23.  
  24. #消费者们:即吃货们
  25. c1=Process(target=consumer,args=(q,))
  26. c2=Process(target=consumer,args=(q,))
  27.  
  28. #开始
  29. p1.start()
  30. p2.start()
  31. p3.start()
  32. c1.start()
  33.  
  34. p1.join() #必须保证生产者全部生产完毕,才应该发送结束信号
  35. p2.join()
  36. p3.join()
  37. q.put(None) #有几个消费者就应该发送几次结束信号None
  38. q.put(None) #发送结束信号
  39. print('主')

多个消费者的例子:有几个消费者就需要发送几次结束信号

明日默写:

抢票

  1. import json
  2. import time
  3. import random
  4. from multiprocessing import Process,Lock
  5.  
  6. def check_ticket(i):
  7. with open('ticket') as f:
  8. ticket_count = json.load(f)
  9. print('person%s查询当前余票 :'%i,ticket_count['count'])
  10.  
  11. def buy_ticket(i,lock):
  12. check_ticket(i)
  13. lock.acquire()
  14. with open('ticket') as f:
  15. ticket_count = json.load(f)
  16. time.sleep(random.random())
  17. if ticket_count['count'] > 0:
  18. print('person%s购票成功'%i)
  19. ticket_count['count'] -= 1
  20. else:
  21. print('余票不足,person%s购票失败'%i)
  22. time.sleep(random.random())
  23. with open('ticket','w') as f:
  24. json.dump(ticket_count,f)
  25.  
  26. if __name__ == '__main__':
  27. lock = Lock()
  28. for i in range(10):
  29. Process(target=buy_ticket,args=[i,lock]).start()

红绿灯

  1. import time
  2. import random
  3. from multiprocessing import Process,Event
  4.  
  5. def traffic_light(e,count): # 交通灯
  6. while True:
  7. while True:
  8. # 事件在创建的时候,e的状态是False,相当于程序中的红灯
  9. print('\033[1;31m红灯亮\033[0m')
  10. time.sleep(2) # 红灯亮2秒
  11. # 这里e.is_set()是False,所以not e.is_set()就是True
  12. if not e.is_set():e.set() # 判断为True时,变绿灯
  13. print('\033[1;32m绿灯亮\033[0m')
  14. time.sleep(2) # 绿灯亮2秒
  15. # 这里e.is_set()是True
  16. if e.is_set():e.clear() # 判断为True时,将状态设置为False
  17. count += 1 # 自增1
  18. if count == 5: # 判断为5时,跳出内层循环
  19. break
  20. break #跳出内层循环
  21.  
  22. def car(i,e): # 汽车,感知状态的变化
  23. if not e.is_set(): # 当前这个事件状态是False
  24. print('car%s正在等待'%i) # 这辆车正在等待通过路口
  25. e.wait() # 阻塞,直到有一个e.set行为。正在等红灯
  26. print('car%s通过路口'%i) # 等待状态为True,才能通过
  27.  
  28. if __name__ == '__main__':
  29. e = Event() # 创建事件,默认状态为False
  30. Process(target=traffic_light,args=(e,0)).start() # 启动红灯进程
  31. for i in range(1,6): # 模拟5个人
  32. time.sleep(random.randrange(0,5,2)) # 大于等于0且小于5之间的奇数
  33. Process(target=car,args=(i,e)).start() # 启动交通灯进程

  

python 全栈开发,Day39(进程同步控制(锁,信号量,事件),进程间通信(队列,生产者消费者模型))的更多相关文章

  1. 进程同步控制(锁,信号量,事件), 进程通讯(队列和管道,生产者消费者模型) 数据共享(进程池和mutiprocess.Pool模块)

    参考博客 https://www.cnblogs.com/xiao987334176/p/9025072.html#autoid-1-1-0 进程同步(multiprocess.Lock.Semaph ...

  2. Python全栈开发:进程代码实例

    进程与线程的关系 #!/usr/bin/env python # -*- coding;utf-8 -*- """ 多进程(主进程,子进程): 优点:能同时利用多个CPU ...

  3. python全栈开发day39-CSS继承性和层叠性、权重问题、盒模型和其属性、文本级标签和块级标签、浮动

    一.上次内容回顾 1.CSS的三种引入方式: 行内式 内接式 外接式 链接式 导入式 2.基础选择器和高级选择器 1)标签选择器 p{} 2)  id选择器 #nva{} 3) 类选择器 .nva{} ...

  4. python全栈开发从入门到放弃之socket并发编程之IO模型

    一 IO模型介绍 同步(synchronous) IO和异步(asynchronous) IO,阻塞(blocking) IO和非阻塞(non-blocking)IO分别是什么,到底有什么区别?这个问 ...

  5. python全栈开发day49-jquery的位置信息、事件流、事件对象,事件委托,事件绑定和解绑

    一.昨日内容回顾    1. jQuery的属性操作 1) html属性操作:attr 2) DOM属性操作:prop 3) 类样式操作:addClass.removeClass.toggleClas ...

  6. 《python》join、守护进程、锁/信号量/事件、进程队列

    一.multiprocess.process模块 1.join方法 阻塞主进程,等待子进程执行完毕再放开阻塞 import time import random from multiprocessin ...

  7. Python全栈开发【面向对象】

    Python全栈开发[面向对象] 本节内容: 三大编程范式 面向对象设计与面向对象编程 类和对象 静态属性.类方法.静态方法 类组合 继承 多态 封装 三大编程范式 三大编程范式: 1.面向过程编程 ...

  8. Python全栈开发【模块】

    Python全栈开发[模块] 本节内容: 模块介绍 time random os sys json & picle shelve XML hashlib ConfigParser loggin ...

  9. 自学Python全栈开发第一次笔记

           我已经跟着视频自学好几天Python全栈开发了,今天决定听老师的,开始写blog,听说大神都回来写blog来记录自己的成长. 我特别认真的跟着这个视频来学习,(他们开课前的保证书,我也写 ...

随机推荐

  1. 【Java深入研究】4、fail-fast机制

    在JDK的Collection中我们时常会看到类似于这样的话: 例如,ArrayList: 注意,迭代器的快速失败行为无法得到保证,因为一般来说,不可能对是否出现不同步并发修改做出任何硬性保证.快速失 ...

  2. 在C语言结构体中添加成员函数

    我们在使用C语言的结构体时,经常都是只定义几个成员变量,而学过面向对象的人应该知道,我们定义类时,不只是定义了成员变量,还定义了成员方法,而类的结构和结构体非常的相似,所以,为什么不想想如何在C语言结 ...

  3. HashMap底层实现原理(JDK1.8)源码分析

    ref:https://blog.csdn.net/tuke_tuke/article/details/51588156 http://www.cnblogs.com/xiaolovewei/p/79 ...

  4. pycharm技巧

    常用快捷键 1.Ctrl + Enter:在下方新建行但不移动光标: 2.Shift + Enter:在下方新建行并移到新行行首: 3.Ctrl + /:注释(取消注释)选择的行: 4.Ctrl + ...

  5. 【代码笔记】Web-ionic checkbox(复选框)

    一,效果图. 二,代码. <!DOCTYPE html> <html> <head> <meta charset="utf-8"> ...

  6. 【读书笔记】iOS-更改布局行为

    View---->Assistant Editor---->查看可用的布局. 参考资料:<Xcode实战开发>  

  7. 微软Azure AspNetCore微服务实战 第一期

    微服务大家已经不在陌生了,相对传统单体架构其带来了更大的灵活性与多方位的效率提升. 2017官方发布了EshopOnContainers的微服务项目,其结合了.Net Core.Azure.Docke ...

  8. U8 应付款管理 单据类型 分析

    Ap_CloseBill   收付款单主表 Ap_CloseBills 收付款单子表 cVouchType 在收付款单主表中  ,用于区分单据为收款单还是付款单(48,49)  49:付款单 48:收 ...

  9. C#委托之我见

    委托的使用方式很简单,了解一下基本语法就可以开撸了.但是使用委托的真正难题是不知道应用场景,就像习得了一门新功夫,但是却找不到任何施展拳脚的地方.这个难题一直困然着我,直到最近仿佛有所领悟,所以赶紧记 ...

  10. scrapy系列(四)——CrawlSpider解析

    CrawlSpider也继承自Spider,所以具备它的所有特性,这些特性上章已经讲过了,就再在赘述了,这章就讲点它本身所独有的. 参与过网站后台开发的应该会知道,网站的url都是有一定规则的.像dj ...