进程

开启进程

from multiprocessing import Process
import time def task(name):
print('%s is running' %name)
time.sleep(2) #在windows系统下,开子进程的代码必须写到这一行下面
if __name__ == '__main__':
p=Process(target=task,args=('egon',)) # 设置进程的任务及参数
p.start() #只是在给操作系统发了一个信号,让操作系统去开进程(申请内存+拷贝父进程的地址空间)
print('主') #主
#egon is running

第二种开启进程的方式

from multiprocessing import Process
import time
# 通过继承Process类来开启进程
class Myprocess(Process):
def __init__(self,name): # 初始化,主要是为了传递一些参数
super().__init__()
self.name=name
def run(self): # 执行的任务
time.sleep(3)
print('%s is running' % self.name)
time.sleep(2) # 在windows系统下,开子进程的代码必须写到这一行下面
if __name__ == '__main__':
p = Myprocess('egon')
p.start() # p.run()
print('主') #主
#egon is running

Process对象的常用方法

start() : 用于开启一个子进程,上面可以看到

join() : 等待子进程完成 , 前面代码之所以先打印主, 是因为开启进程时加载资源消耗时间

from multiprocessing import Process
import time
#
class Myprocess(Process):
def __init__(self,name):
super().__init__()
self.name=name
def run(self):
time.sleep(3)
print('%s is running' % self.name)
time.sleep(2) if __name__ == '__main__': # 在windows系统下,开子进程的代码必须写到这一行下面
p = Myprocess('egon')
p.start() # p.run()
p.join()
print('主') #egon is running
#主 #p.join([timeout])
#主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,
#需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程
#在上面代码中等待子进程结束的时候,p1,p2两个进程是同时运行的
#如果staer后紧跟join则会等待子进程完成后才会执行就失去了并发的功能

terminate()

terminate是给操作系统发信号,让操作系统去关闭进程 #然而这并没有什么卵用,强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁

#terminate()
from multiprocessing import Process
import time,random
def func(name):
print('%s is runing' %name)
time.sleep(2)
print('%s is done' %name) if __name__ == '__main__':
p1 = Process(target=func,args=("one",))
p1.start()
p1.terminate()
p1.join()
print("hahaha") #执行结果
#hahaha

is_alive()

is_alive是判断子进程是否在运行, 运行返回True,不运行返回Flase

from multiprocessing import Process
import time,random
def func(name):
print('%s is runing' %name)
time.sleep(2)
print('%s is done' %name) if __name__ == '__main__':
p1 = Process(target=func,args=("one",))
p1.start()
print(p1.is_alive())
p1.join()
print("hahaha") #执行结果
#True
#one is runing
#one is done
#hahaha

name pid

name是Process对象的一个属性,由默认值,也可以自己指定

pid 进程ID

def piao(name):
print('%s is wuwuwa' % name) if __name__ == '__main__':
p1=Process(target=piao,args=('alex',))
p2=Process(target=piao,args=('alex',))
p3=Process(target=piao,args=('alex',),name="hahaha") p1.start()
print(p1.name)
print(p2.name)
print(p3.name) print(p1.pid) print('主')
#运行结果
#Process-1
#Process-2
#hahaha
#1468
#主
#alex is wuwuwa

进程池

操作系统不可能无线开启进程,进程开启过多,效率反而会下降(开启进程是需要占用系统资源的,而且开启多余核数目的进程也无法做到并行)

我们就可以通过维护一个进程池来控制进程数目

创建一个进程池

from concurrent.futures import ProcessPoolExecutor
import time,os def piao(name,n):
print("%s is piaoing %s"%(name,os.getpid())) # 打印了进程id
time.sleep(1) if __name__ == "__main__":
p = ProcessPoolExecutor(4) # 指定进程池最大进程个数
for i in range(10):
obj = p.submit(piao,"alex %s"%i,i) # 提交任务,去开启子进程 #运行结果
#alex 0 is piaoing 6136
#alex 1 is piaoing 8872
#alex 2 is piaoing 420
#alex 3 is piaoing 5644 #alex 4 is piaoing 6136
#alex 5 is piaoing 8872
#alex 6 is piaoing 420
#alex 7 is piaoing 5644 #alex 8 is piaoing 6136
#alex 9 is piaoing 8872
#进程ID始终就是四个,另外注意,这里写的都是停一秒,所以他们每次都运行完四个。
#事实上进程池是有一个进程执行完之后,就有一个进程补进来

当有操作需要在子进程都结束之后执行时,就会需要一个类似于join()的操作

from concurrent.futures import ProcessPoolExecutor
import time,os,random def piao(name,n):
print("%s is piaoing %s"%(name,os.getpid())) # 打印了端口号
time.sleep(random.randint(2,3)) if __name__ == "__main__":
p = ProcessPoolExecutor(4) # 指定进程池最大进程个数
for i in range(10):
obj = p.submit(piao,"alex %s"%i,i) # 提交子进程 p.shutdown(wait=True) # 在没有这句话的情况下,肯定会先执行下面的操作
# 这句话的意思是进程池中不会再添加进程,等到进程池中的进程运行结束后执行下面的代码
print("哈哈哈哈")
#运行结果 #alex 0 is piaoing 12000
#alex 1 is piaoing 904
#alex 2 is piaoing 6120
#alex 3 is piaoing 8328 #alex 4 is piaoing 904
#alex 5 is piaoing 8328 #alex 6 is piaoing 12000
#alex 7 is piaoing 6120 #alex 8 is piaoing 904
#alex 9 is piaoing 8328
#哈哈哈哈

子进程有返回值-result()

from concurrent.futures import ProcessPoolExecutor
import time,os,random def piao(name,n):
print("%s is piaoing %s"%(name,os.getpid())) # 打印了端口号
time.sleep(random.randint(2,3))
return n*2
if __name__ == "__main__":
p = ProcessPoolExecutor(4) # 指定进程池最大进程个数
objs = []
for i in range(10):
# 这属于同步调用,要等到obj拿到结果后才会执行之后的代码
# obj = p.submit(piao,"alex %s"%i,i).result()
# print(obj)
# 异步调用
obj = p.submit(piao,"alex %s"%i,i) # 这里只提交进程,并不拿到他们的结果,并且把进程赋值给一个变量
objs.append(obj) # 把进程追加进列表中
for obj in objs:
print(obj.result()) # 从列表中拿到进程的返回值
# 这里提交进程时并不会遇到阻塞,进程池中的四个进程是同时运行的,一个进程运行完,就会有另一个进程开始运行
# 在拿结果的时候可能有一个没有运行完但他后面的就运行完了,他不会跳过去取结果,会等待结果出来,这时后面的
# 结果是计算出来的所以不用等待就能拿到结果 p.shutdown(wait=True)
print("哈哈哈哈")

守护进程

由主进程开启守护进程,主进程结束后守护进程随之结束

from multiprocessing import Process
import os,time,random def task():
print('%s is running' %os.getpid())
time.sleep(2)
print('%s is done' %os.getpid()) if __name__ == '__main__':
p=Process(target=task)
p.daemon = True #1、必须在p.start()之前 2:守护进程不能开启子进程
p.start()
# p.join()
print('主')
#结果
#主

需要注意的是 :

  • 守护进程会在主进程代码执行结束后就终止
  • 守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes are not allowed to have children

进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,

竞争带来的结果就是错乱,如何控制,就是加锁处理

并发造成的问题

#并发运行,效率高,但竞争同一打印终端,带来了打印错乱
from multiprocessing import Process,Lock
import os,time,random def task():
print("111111")
time.sleep(2)
print("222222")
time.sleep(2)
print("333333") if __name__ == "__main__":
mutex = Lock()
p1 = Process(target=task)
p2 = Process(target=task)
p3 = Process(target=task)
p1.start()
p2.start()
p3.start()
#运行结果
#111111
#111111
#111111
#222222
#222222
#222222
#333333
#333333
#333333

通过加锁避免该问题

from multiprocessing import Process,Lock
import os,time,random def task(mutex):
mutex.acquire() # 获得锁
print("111111")
time.sleep(2)
print("222222")
time.sleep(2)
print("333333")
mutex.release() # 释放锁 if __name__ == "__main__":
mutex = Lock()
p1 = Process(target=task,args=(mutex,)) # 将锁对象传入任务重
p2 = Process(target=task,args=(mutex,))
p3 = Process(target=task,args=(mutex,))
p1.start()
p2.start()
p3.start()
#运行结果
#111111
#222222
#333333
#111111
#222222
#333333
#111111
#222222
#333333

互斥锁与join的区别

join是等一个进程运行完后下一个进程才运行,而互斥锁是进程都执行了,不过这个任务每次都只能有一个进程执行,谁抢到谁运行。

且join是全局的,一个进程没完不会开启下一个进程,互斥锁可以局部进行,专门为某一个任务加锁。

买火车票

def search():
with open('db.txt',encoding='utf-8') as f:
dic=json.load(f)
print('%s 剩余票数 %s' %(os.getpid(),dic['count'])) def get():
with open('db.txt',encoding='utf-8') as read_f:
dic=json.load(read_f) if dic['count'] > 0:
dic['count']-=1
time.sleep(random.randint(1,3)) #模拟手速+网速
with open('db.txt','w',encoding='utf-8') as write_f:
json.dump(dic,write_f)
print('%s 抢票成功' %os.getpid()) def task(mutex):
search()
mutex.acquire()
get() # 只为买票加锁
mutex.release() if __name__ == '__main__':
mutex=Lock()
for i in range(20):
p=Process(target=task,args=(mutex,))
p.start()
#结果-并不影响查票,但买票只能一个一个买
10356 剩余票数 1
15436 剩余票数 1
10008 剩余票数 1
14496 剩余票数 1
5668 剩余票数 1
15884 剩余票数 1
7288 剩余票数 1
7308 剩余票数 1
15740 剩余票数 1
152 剩余票数 1
12260 剩余票数 1
14988 剩余票数 1
15396 剩余票数 1
15696 剩余票数 1
1036 剩余票数 1
7632 剩余票数 1
15392 剩余票数 1
14600 剩余票数 1
12408 剩余票数 1
16168 剩余票数 1
10356 抢票成功

线程

线程是CPU的执行单位,一个进程内默认就会有一个控制线程,该控制线程可以执行代码从而创建新的线程

多线程是在一个进程中开启多个线程,线程之间资源共享。这些线程共享一个进程的地址空间,也共享一个进程中的资源。这些线程的关系是并列的,一个线程修改进程的参数,其他进程都会受影响。

开启线程

方式一

from threading import Thread
import time,os def task():
print('%s is running' %os.getpid())#os.getpid()进程id
time.sleep(5)
print('%s is done' %os.getpid()) if __name__ == '__main__':
t=Thread(target=task,)#函数名,元组式的参数
t.start() print('主')
#运行结果
#580 is running
#主
#580 is done #开启子线程和开启子进程方法都是一样的,只是导入的模块不同
#使用子进程执行上面的代码会先打印“主”
#而使用子线程会先打印“580 is running”说明了开启线程是比开启进程要快的

继承的方式

from threading import Thread
import time,os class Mythread(Thread):
def __init__(self):
super().__init__() def run(self):
print('%s is running' % os.getpid())
time.sleep(5)
print('%s is done' % os.getpid()) if __name__ == '__main__':
t=Mythread()
t.start()

其他方法

from threading import Thread,current_thread,enumerate,active_count
import time def task():
print('%s is running' %current_thread().getName())
time.sleep(5)
print('%s is done' %current_thread().getName()) if __name__ == '__main__':
t=Thread(target=task,name='xxxx') #可以为进程指定名字不指定默认从Thread-1开始
t.start() #查看当前活着的线程
print(enumerate()) #返回活着进程信息的列表
print(active_count()) # 查看进程数
print('主',current_thread().getName()) # 返回进程名字 #运行结果 #xxxx is running
#[<_MainThread(MainThread, started 11784)>, <Thread(xxxx, started 5700)>]
#2
#主 MainThread
#xxxx is done

同样,多线程中也存在start(), 和join()

线程池

同样一个进程中不可能无限开辟线程,于是就有了线程池,线程池的作用与进程池相似,是规定了开辟最大线程数 --  也可以通过result()方法拿到返回值

from concurrent.futures import ThreadPoolExecutor
import time,os,random
def piao(name,n):
print("%s is piaoing %s"%(name,os.getpid())) # 打印了进程id
time.sleep(random.randint(1,3)) if __name__ == "__main__":
p = ThreadPoolExecutor(4) # 指定线程池最大线程个数,不包含控制线程
for i in range(10):
obj = p.submit(piao,"alex %s"%i,i) # 提交线程
print("主") #是不是和开启子进程方法一模一样,只是名字不同 #执行结果就像之前说的那样,开启线程要比开启进程快的多,所以控制线程的结果在子线程之后打印出来
#执行结果
#alex 0 is piaoing 8764
#alex 1 is piaoing 8764
#alex 2 is piaoing 8764
#alex 3 is piaoing 8764
#主 #alex 4 is piaoing 8764
#alex 5 is piaoing 8764
#alex 6 is piaoing 8764
#alex 7 is piaoing 8764 #alex 8 is piaoing 8764 #alex 9 is piaoing 8764

守护线程

守护控制线程

from threading import Thread
import os,time,random def task():
print('%s is running' %os.getpid())
time.sleep(2)
print('%s is done' %os.getpid())
# p = Thread(target=time.sleep, args=(3,))
# p.start() if __name__ == '__main__':
p=Thread(target=task)
p.daemon = True #1、必须在p.start()之前 2:守护线程可以开启子线程
p.start()
print('主') #运行结果
#6120 is running
#主

ps : 守护线程是可以开启子线程的

from threading import Thread
import os,time,random def task():
print('%s is running' %os.getpid())
time.sleep(2)
print('%s is done' %os.getpid())
p = Thread(target=print, args=("子线程中的子线程",))
p.start() if __name__ == '__main__':
p=Thread(target=task)
p.daemon = True #1、必须在p.start()之前 2:守护进程不能开启子进程
p.start()
p.join()
print('主') #结果
#14368 is running
#14368 is done
#子线程中的子线程
#主

线程之间数据共享,如果多个线程同时修改数据,会产生意外的结果

from threading import Thread,Lock
import time
n=100 def task():
global n
temp=n
time.sleep(0.1) #模仿处理时间
n=temp-1 if __name__ == '__main__':
# mutex=Lock()
t_l=[]
for i in range(100):
t=Thread(target=task)
t_l.append(t)
t.start()
for t in t_l:
t.join()
print(n)
# 运行结果-他们几乎是同时拿到了数据,进行处理,但拿到的是相同的数据
99

加锁方式

from threading import Thread,Lock
import time
n=100 def task(): #可以不传递mutex,线程共享资源,而进程必须要传过去
global n
mutex.acquire()
temp=n
time.sleep(0.1)
n=temp-1
mutex.release()
  #另外一种写法
  # global n
  # with mutex: 线程锁对象支持with语法来获取锁和释放锁
  # temp=n
  # time.sleep(0.1)
  # n=temp-1 if __name__ == '__main__':
mutex=Lock()
t_l=[]
for i in range(100):
t=Thread(target=task)
t_l.append(t)
t.start() for t in t_l:
t.join()
print(n)
#执行结果-进行加锁,使他们不能同时拿到数据,只有在一个进程结束之后才可以拿
#0

  

协程

cpu正在运行一个任务,会在两种情况下切走去执行其他的任务(切换由操作系统强制控制),一种情况是该任务发生了阻塞,另外一种情况是该任务计算的时间过长.

我们可以在代码级别进行保存状态和切换, 利用回调来执行IO操作. 尽可能的占用CPU资源.

如利用yield send来保存切换和保存状态

#串行执行
import time
def consumer(res):
'''任务1:接收数据,处理数据'''
pass def producer():
'''任务2:生产数据'''
res = 0
for i in range(10000000):
res +=i
return res start=time.time()
#串行执行
res=producer()
consumer(res) #写成consumer(producer())会降低执行效率
stop=time.time()
print(stop-start) #0.571678876876831 #基于yield并发执行
import time
def consumer():
'''任务1:接收数据,处理数据'''
y = 0
while True:
x =yield
y+=x def producer():
'''任务2:生产数据'''
g=consumer()
next(g) # 激活, 把第一次yield的值接收,也可以send(None)
for i in range(10000000):
g.send(i)
start=time.time()
#基于yield保存状态,实现两个任务直接来回切换,即并发的效果
#PS:如果每个任务中都加上打印,那么明显地看到两个任务的打印是你一次我一次,即并发执行的.
producer() stop=time.time()
print(stop-start) #1.5842673778533936

协程的优缺点

优点如下:
#1. 协程的切换开销更小,属于程序级别的切换,操作系统完全感知不到,因而更加轻量级
#2. 单线程内就可以实现并发的效果,最大限度地利用cpu 缺点如下
#1. 协程的本质是单线程下,无法利用多核,可以是一个程序开启多个进程,每个进程内开启多个线程,每个线程内开启协程
#2. 协程指的是单个线程,因而一旦协程出现阻塞,将会阻塞整个线程

协程模块

from gevent import monkey;monkey.patch_all()
import gevent
import time
# gevent本身只支持切换自身IO阻塞,需要导入monkey;monkey.patch_all()来实现遇到IO切,一定要写在最前面,意思是支持切换下面的IO操作。 def eat(name):
print('%s eat 1' %name)
time.sleep(2)
print('%s eat 2' %name) def play(name):
print('%s play 1' %name)
time.sleep(3)
print('%s play 2' %name) g1=gevent.spawn(eat,'alex')
g2=gevent.spawn(play,'egon') g1.join()
g2.join() # join是等待协程完成,这里如果不使用join主线程执行完毕这个进程就结束了,不会打印内容
#上面两个join可写为gevent.joinall([g1,g2]) #元组列表都可以
#alex eat 1
#egon play 1
#alex eat 2
#egon play 2

GIL锁

全局解释器锁(Global Interpreter Lock)是计算机程序设计语言解释器用于同步线程的工具,使得任何时刻仅有一个线程在执行。

全局解释器锁的本质是互斥锁,不过套在python解释器(一个进程)上的,这就使得同一时刻只有一个线程拿到python解释器的执行权限,就是同一时刻只有一个线程在执行,而Lock是套在代码段上,使得同一时刻只有一个线程来使用这个代码的功能。

在Cpython解释器中,同一个进程下开启的多线程,同一时刻只能有一个线程执行,无法利用多核优势

进程可以利用多核,但是开销大,而python的多线程开销小,但却无法利用多核优势,也就是说python没用了?

#分析:
我们有四个任务需要处理,处理方式肯定是要玩出并发的效果,解决方案可以是:
方案一:开启四个进程
方案二:一个进程下,开启四个线程 #单核情况下,分析结果:
  如果四个任务是计算密集型,没有多核来并行计算,方案一徒增了创建进程的开销,方案二胜
  如果四个任务是I/O密集型,方案一创建进程的开销大,且进程的切换速度远不如线程,方案二胜 #多核情况下,分析结果:
  如果四个任务是计算密集型,多核意味着并行计算,在python中一个进程中同一时刻只有一个线程执行用不上多核,方案一胜
  如果四个任务是I/O密集型,再多的核也解决不了I/O问题,方案二胜 #结论:现在的计算机基本上都是多核,python对于计算密集型的任务开多线程的效率并不能带来多大性能上的提升,甚至不如
串行(没有大量切换),但是,对于IO密集型的任务效率还是有显著提升的。

进程之间通信的方式

无名管道( pipe ): - 管道是一种半双工的通信方式,数据只能单向流动,而且只能在具有亲缘关系的进程间使用。进程的亲缘关系通常是指父子进程关系。
高级管道(popen):  - 将另一个程序当做一个新的进程在当前程序进程中启动,则它算是当前程序的子进程,这种方式我们成为高级管道方式。
有名管道(named pipe) : - 有名管道也是半双工的通信方式,但是它允许无亲缘关系进程间的通信。
消息队列( message queue ) : - 消息队列是由消息的链表,存放在内核中并由消息队列标识符标识。消息队列克服了信号传递信息少、管道只能承载无格式字节流以及缓冲区大小受限等缺点。
信号量( semophore ) :- 信号量是一个计数器,可以用来控制多个进程对共享资源的访问。它常作为一种锁机制,防止某进程正在访问共享资源时,其他进程也访问该资源。因此,主要作为进程间以及同一进程内不同线程之间的同步手段。
信号 ( sinal ) : - 信号是一种比较复杂的通信方式,用于通知接收进程某个事件已经发生。
共享内存( shared memory ) : - 共享内存就是映射一段能被其他进程所访问的内存,这段共享内存由一个进程创建,但多个进程都可以访问。共享内存是最快的 IPC 方式,它是针对其他进程间通信方式运行效率低而专门设计的。它往往与其他通信机制,如信号两,配合使用,来实现进程间的同步和通信。
套接字( socket ):- 套解口也是一种进程间通信机制,与其他通信机制不同的是,它可用于不同机器间的进程通信。

基于队列实现的生产者消费者模型

基础模型

from multiprocessing import Process,Queue
import time,random,os def procducer(q):
for i in range(10):
res='包子%s' %i
time.sleep(0.5)
q.put(res) # 放值
print('%s 生产了 %s' %(os.getpid(),res)) def consumer(q):
while True:
res=q.get() # 取值
print('%s 吃 %s' %(os.getpid(),res))
time.sleep(random.randint(2,3)) if __name__ == '__main__':
q=Queue()
p=Process(target=procducer,args=(q,)) # 给两个进程传递一个队列
c=Process(target=consumer,args=(q,)) p.start()
c.start()
print('主')

  

此时的问题是主进程永远不会结束,原因是:生产者p在生产完后就结束了,但是消费者c在取空了q之后,则一直处于死循环中且卡在q.get()这一步。

解决方式无非是让生产者在生产完毕后,往队列中再发一个结束信号,这样消费者在接收到结束信号后就可以break出死循环

注意:结束信号None,不一定要由生产者发,主进程里同样可以发,但主进程需要等生产者结束后才应该发送该信号

生产者发送信号

from multiprocessing import Process,Queue
import time,random,os def procducer(q):
for i in range(10):
res='包子%s' %i
time.sleep(0.5)
q.put(res)
print('%s 生产了 %s' %(os.getpid(),res))
q.put(None) # 生产完毕 def consumer(q):
while True:
res=q.get()
if res is None:
break
print('%s 吃 %s' %(os.getpid(),res))
time.sleep(random.randint(2,3)) if __name__ == '__main__':
q=Queue()
p=Process(target=procducer,args=(q,))
c=Process(target=consumer,args=(q,)) p.start()
c.start()
print('主')

主进程发送信号

from multiprocessing import Process,Queue
import time,random,os def procducer(q):
for i in range(10):
res='包子%s' %i
time.sleep(0.5)
q.put(res)
print('%s 生产了 %s' %(os.getpid(),res)) def consumer(q):
while True:
res=q.get()
if res is None:
break
print('%s 吃 %s' %(os.getpid(),res))
time.sleep(random.randint(2,3)) if __name__ == '__main__':
q=Queue()
p=Process(target=procducer,args=(q,))
c=Process(target=consumer,args=(q,)) p.start()
c.start() p.join()
q.put(None)
print('主')

  注意:不能以队列是否为空来判断消费者是否结束,因为可能生产者没有及时生产,队列开始时为空。

JoinableQueue队列

JoinableQueue 比Queue多了task_done() 与join()两个函数

task_done() 是用在get()后,告诉os, 我get完了,

join()是说Queue里所有的items都被拿出来搞完了。

  put时有一个计数器,在task_done的次数等于put次数时,生产者才会结束。join就是等待生产者结束。可以将消费者设为守护进程,因为生产者结束就意味着消费者已经把生产者生产的数据取完了。让消费者不必在等待

from multiprocessing import Process,Queue,JoinableQueue
import time,random,os def procducer(food,q):
for i in range(3):
res='%s%s' %(food,i)
time.sleep(0.5)
q.put(res)
print('%s 生产了 %s' %(os.getpid(),res))
q.join() # 等待消费完毕时执行完毕 def consumer(q):
while True:
res=q.get()
print('%s 吃 %s' %(os.getpid(),res))
time.sleep(random.randint(2,3))
q.task_done() # 消费一个 if __name__ == '__main__':
q=JoinableQueue()
p1=Process(target=procducer,args=('包子',q,)) # 生产包子的生产者
p2=Process(target=procducer,args=('饺子',q,)) # 生产饺子的生产者
p3=Process(target=procducer,args=('面条',q,)) # 生产面条的生产者
c1=Process(target=consumer,args=(q,)) # 两个守护进程的消费者
c2=Process(target=consumer,args=(q,)) c1.daemon=True
c2.daemon=True p1.start()
p2.start()
p3.start()
c1.start()
c2.start() p1.join()
p2.join()
p3.join()

信号量

信号量规定了能够同时进行这个功能的进程或线程的个数。有些类似锁(锁是只有一把钥匙, 这个可以设置钥匙数量)

进程间的信号量

from multiprocessing import Process,Semaphore
import time,random,os def task(sm):
with sm:
print('%s 上厕所' %os.getpid())
time.sleep(random.randint(1,3))
#相当于
#sm.acquire()
#print('%s 上厕所' % os.getpid())
#time.sleep(random.randint(1,3))
#sm.release() if __name__ == '__main__':
sm=Semaphore(3)
for i in range(10):
p=Process(target=task,args=(sm,))
p.start()
#执行结果
3756 上厕所
12456 上厕所
3668 上厕所 8756 上厕所
14836 上厕所
8332 上厕所 13508 上厕所
10332 上厕所 15944 上厕所
12044 上厕所

线程间的信号量

from threading import Thread,Semaphore
import time,random,os,current_thread def task(sm):
with sm:
print('%s 上厕所' %current_thread().getName())
time.sleep(random.randint(1,3))
if __name__ == '__main__':
sm=Semaphore(3)
for i in range(10):
p=Thread(target=task,args=(sm,))
p.start()
#结果
Thread-1 上厕所
Thread-2 上厕所
Thread-3 上厕所 Thread-4 上厕所 Thread-5 上厕所 Thread-6 上厕所
Thread-7 上厕所 Thread-8 上厕所 Thread-9 上厕所 Thread-10 上厕所

进程与线程的回调函数

需要回调函数的场景:进(线)程池中任何一个任务一旦处理完了,就立即告知主进程:我好了额,你可以处理我的结果了。主进(线)程则调用一个函数去处理该结果,该函数即回调函数

我们可以把耗时间(阻塞)的任务放到进(线)程池中,然后指定回调函数,这样主进(线)程在执行回调函数时就省去了I/O的过程,直接拿到的是任务的结果。

进程回调

进程中的回调函数由主进程来完成

from concurrent.futures import ProcessPoolExecutor
from threading import current_thread
import time,random,os
def task(n):
print('%s is running in %s' %(current_thread().getName(),os.getpid())) #打印线程名字,进程id
time.sleep(2)
return n**2
def func(n): print(str(n.result())+"执行完啦","由%s执行的"%os.getpid()) #打印进程id
time.sleep(2) if __name__ == '__main__':
start = time.time()
t=ProcessPoolExecutor(3) #默认是cpu的核数*5
for i in range(5):
t.submit(task,i).add_done_callback(func) # 指定回调函数
t.shutdown(wait=True)
end = time.time()
print(end - start)
print('主',current_thread()) # 运行结果 回调函数都是同一个进程id MainThread is running in 3504
MainThread is running in 14188
MainThread is running in 13180
MainThread is running in 3504
0执行完啦 由9616执行的
1执行完啦 由9616执行的
MainThread is running in 14188
4执行完啦 由9616执行的
9执行完啦 由9616执行的
16执行完啦 由9616执行的
12.142156839370728
主 <_MainThread(MainThread, started 11004)>

线程回调

线程中的回调函数不由控制线程完成

from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
from threading import current_thread,enumerate,active_count
import time,random
def task(n):
print('%d is running in %s' %(i,current_thread().getName())) #打印线程名字
time.sleep(2)
return n**2
def func(obj): # 模仿处理返回值。拿到结果后停两秒,相当于处理结果
print(obj.result(), current_thread().getName()) # 打印线程名字
time.sleep(2) if __name__ == '__main__':
start = time.time()
t=ThreadPoolExecutor(3) #默认是cpu的核数*5
for i in range(5):
t.submit(task, i).add_done_callback(func) # print(obj.result())
end = time.time()
print(end-start)
print('主',current_thread()) # 不会在控制线程中运行
0 is running in ThreadPoolExecutor-0_0
1 is running in ThreadPoolExecutor-0_1
2 is running in ThreadPoolExecutor-0_2
0.0009913444519042969
主 <_MainThread(MainThread, started 6812)>
0 ThreadPoolExecutor-0_0
1 ThreadPoolExecutor-0_1
4 ThreadPoolExecutor-0_2
4 is running in ThreadPoolExecutor-0_0
4 is running in ThreadPoolExecutor-0_1
9 ThreadPoolExecutor-0_0
16 ThreadPoolExecutor-

  

Python 并发编程的更多相关文章

  1. Python并发编程__多进程

    Python并发编程_多进程 multiprocessing模块介绍 python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大 ...

  2. Python并发编程的几篇文章

    Python几种并发实现方案的性能比较 http://www.elias.cn/Python/PyConcurrency?from=Develop.PyConcurrency python并发编程 h ...

  3. Python并发编程之深入理解yield from语法(八)

    大家好,并发编程 进入第八篇. 直到上一篇,我们终于迎来了Python并发编程中,最高级.最重要.当然也是最难的知识点--协程. 当你看到这一篇的时候,请确保你对生成器的知识,有一定的了解.当然不了解 ...

  4. 自学Python之路-Python并发编程+数据库+前端

    自学Python之路-Python并发编程+数据库+前端 自学Python之路[第一回]:1.11.2 1.3

  5. Python并发编程二(多线程、协程、IO模型)

    1.python并发编程之多线程(理论) 1.1线程概念 在传统操作系统中,每个进程有一个地址空间,而且默认就有一个控制线程 线程顾名思义,就是一条流水线工作的过程(流水线的工作需要电源,电源就相当于 ...

  6. Python并发编程一(多进程)

    1.背景知识(进程.多道技术) 顾名思义,进程即正在执行的一个过程.进程是对正在运行程序的一个抽象. 进程的概念起源于操作系统,是操作系统最核心的概念,也是操作系统提供的最古老也是最重要的抽象概念之一 ...

  7. 《转载》Python并发编程之线程池/进程池--concurrent.futures模块

    本文转载自Python并发编程之线程池/进程池--concurrent.futures模块 一.关于concurrent.futures模块 Python标准库为我们提供了threading和mult ...

  8. Python并发编程系列之多线程

    1 引言 上一篇博文详细总结了Python进程的用法,这一篇博文来所以说Python中线程的用法.实际上,程序的运行都是以线程为基本单位的,每一个进程中都至少有一个线程(主线程),线程又可以创建子线程 ...

  9. Python并发编程系列之多进程(multiprocessing)

    1 引言 本篇博文主要对Python中并发编程中的多进程相关内容展开详细介绍,Python进程主要在multiprocessing模块中,本博文以multiprocessing种Process类为中心 ...

  10. python并发编程之进程、线程、协程的调度原理(六)

    进程.线程和协程的调度和运行原理总结. 系列文章 python并发编程之threading线程(一) python并发编程之multiprocessing进程(二) python并发编程之asynci ...

随机推荐

  1. JDBC 初识

    JDBC是 "Java Database Connective" 的缩写,是使用Java去连接数据库进行数据操作的过程. 首先通过Eclipse 创建动态项目,Dynamic We ...

  2. Net包管理NuGet(3)搭建私服及引用私服的包

    1,打开vs创建项目(ASP.NET WEB空项目)假设命名为MyNuGet 空项目解决方案如图 2,右键引用>管理NuGet程序包>切到浏览搜索NuGet.Server然后安装(3.1. ...

  3. jmeter学习记录--09--命令行运行与生成报告

    一.     使用命令行方式运行Jmeter 1.1 为什么 使用GUI方式启动jmeter,运行线程较多的测试时,会造成内存和CPU的大量消耗,导致客户机卡死. 所以正确的打开方式是在GUI模式下调 ...

  4. 【NLP】BLEU值满分是100分吗?

    为了解决这个问题,首先需要知道BLEU值是如何计算出来的. BLEU全称是Bilingual Evaulation Understudy.其意思是双语评估替补.所谓Understudy(替补),意思是 ...

  5. jvm调优参数

    堆溢出测试args:-verbose:gc -Xms20M -Xmx20M -XX:+PrintGCDetails 栈层级不足args:-Xss128k 常量池内存溢出args : -XX:PermS ...

  6. Comet OJ - Contest #1

    A:随便怎么暴力. #include<bits/stdc++.h> using namespace std; #define ll long long #define N 25 char ...

  7. Django学习目录

    Django学习目录 Django框架简介 Django基础 >>点我 ORM介绍 Django中ORM介绍 >>点我 ORM表操作 Django中ORM表相关操作 >& ...

  8. 一文入门C3

    2.CSS3 官方文档:http://www.w3school.com.cn/cssref/index.asp 2.1.CSS基础 基础简单过下,事先说明下:诸如引入.注释.案例就不一一演示了,有个工 ...

  9. cocos2d中个类之间的关系

    1.Director类: (1)单例类Director::getInstance()  ,获取导演类对象 (2)设置游戏配置(OpenGL),推动游戏发展 runWithSence.replaceSe ...

  10. 你不得不用的MAC软件开发工具软件,个个万里挑一

    作为软件行业,尤其是程序员,Mac上都不得不安装一些必备的MAC软件开发工具软件,下面给大家分享一些必装的MAC软件开发工具软件,以备日后之需,有备无患. 其中,包含各种语言的主流 IDE.开发辅助. ...