进程(并发,并行) join start 进程池 (同步异步)
一、背景知识
顾名思义,进程即正在执行的一个过程。进程是对正在运行程序的一个抽象。进程的概念起源于操作系统,是操作系统最核心的概念,也是操作系统提供的最古老也是最重要的抽象概念之一。操作系统的其他所有内容都是围绕进程的概念展开的。
PS:即使可以利用的cpu只有一个(早期的计算机确实如此),也能保证支持(伪)并发的能力。将一个单独的cpu变成多个虚拟的cpu(多道技术:时间多路复用和空间多路复用+硬件上支持隔离),没有进程的抽象,现代计算机将不复存在。
必备理论
#一 操作系统的作用:
1:隐藏丑陋复杂的硬件接口,提供良好的抽象接口
2:管理、调度进程,并且将多个进程对硬件的竞争变得有序 #二 多道技术:
.产生背景:针对单核,实现并发
ps:
现在的主机一般是多核,那么每个核都会利用多道技术
有4个cpu,运行于cpu1的某个程序遇到io阻塞,会等到io结束再重新调度,会被调度到4个
cpu中的任意一个,具体由操作系统调度算法决定。
核心
.空间上的复用:如内存中同时有多道程序
.时间上的复用:复用一个cpu的时间片
强调:遇到io切,占用cpu时间过长也切,核心在于切之前将进程的状态保存下来,这样
才能保证下次切换回来时,能基于上次切走的位置继续运行
二、多进程概念
1、进程:正在进行的一个过程或者说一个任务。而负责执行任务则是cpu。进程有如下三个状态:
其实在两种情况下会导致一个进程在逻辑上不能运行,
1. 进程挂起是自身原因,遇到I/O阻塞,便要让出CPU让其他进程去执行,这样保证CPU一直在工作
2. 与进程无关,是操作系统层面,可能会因为一个进程占用时间过多,或者优先级等原因,而调用其他的进程去使用CPU。
2、进程与程序的区别:程序仅仅只是一堆代码而已,而进程指的是程序的运行过程。
强调:同一个程序执行两次,那也是两个进程,比如打开网易云音乐,虽然都是同一个软件,但是一个可以播放音乐,一个可以播放mv。
举例(单核+多道,实现多个进程的并发执行):
egon在一个时间段内有很多任务要做:python备课的任务,写书的任务,交女朋友的任务,王者荣耀上分的任务,
但egon同一时刻只能做一个任务(cpu同一时间只能干一个活),如何才能玩出多个任务并发执行的效果?
egon备一会课,再去跟李杰的女朋友聊聊天,再去打一会王者荣耀....这就保证了每个任务都在进行中
3、并发与并行:
无论是并行还是并发,在用户看来都是'同时'运行的,不管是进程还是线程,都只是一个任务而已,真是干活的是cpu,cpu来做这些任务,而一个cpu同一时刻只能执行一个任务
并发:针对只有一个cpu执行多个进程的情况。是伪并行,即看起来是同时运行。单个cpu+多道技术就可以实现并发。
并行:针对多个cpu执行多个进程的情况,并行也属于并发。
单核下,可以利用多道技术,多个核,每个核也都可以利用多道技术(多道技术是针对单核而言的)
有四个核,六个任务,这样同一时间有四个任务被执行,假设分别被分配给了cpu1,cpu2,cpu3,cpu4,
一旦任务1遇到I/O就被迫中断执行,此时任务5就拿到cpu1的时间片去执行,这就是单核下的多道技术
而一旦任务1的I/O结束了,操作系统会重新调用它(需知进程的调度、分配给哪个cpu运行,由操作系统说了算),可能被分配给四个cpu中的任意一个去执行
三、同步\异步and阻塞\非阻塞
同步是指:发送方发出数据后,等接收方发回响应以后才发下一个数据包的通讯方式。
异步是指:发送方发出数据后,不等接收方发回响应,接着发送下个数据包的通讯方式。
同步:
#所谓同步,就是在发出一个功能调用时,在没有得到结果之前,该调用就不会返回。
按照这个定义,其实绝大多数函数都是同步调用。但是一般而言,我们在说同步、异步的时候,特指那些需要其他部件协作或者需要一定时间完成的任务。
#举例:
#1. multiprocessing.Pool下的apply #发起同步调用后,就在原地等着任务结束,根本不考虑任务是在计算还是在io阻塞,总之就是一股脑地等任务结束
#2. concurrent.futures.ProcessPoolExecutor().submit(func,).result()
#3. concurrent.futures.ThreadPoolExecutor().submit(func,).result()
异步:
#异步的概念和同步相对。当一个异步功能调用发出后,调用者不能立刻得到结果。当该异步功能完成后,通过状态、通知或回调来通知调用者。
如果异步功能用状态来通知,那么调用者就需要每隔一定时间检查一次,效率就很低(有些初学多线程编程的人,总喜欢用一个循环去检查某个变量的值,这其实是一 种很严重的错误)。
如果是使用通知的方式,效率则很高,因为异步功能几乎不需要做额外的操作。至于回调函数,其实和通知没太多区别。
#举例:
#1. multiprocessing.Pool().apply_async() #发起异步调用后,并不会等待任务结束才返回,相反,会立即获取一个临时结果(并不是最终的结果,可能是封装好的一个对象)。
#2. concurrent.futures.ProcessPoolExecutor(3).submit(func,)
#3. concurrent.futures.ThreadPoolExecutor(3).submit(func,)
阻塞:
#阻塞调用是指调用结果返回之前,当前线程会被挂起(如遇到io操作)。函数只有在得到结果之后才会将阻塞的线程激活。有人也许会把阻塞调用和同步调用等同起来,实际上他是不同的。
对于同步调用来说,很多时候当前线程还是激活的,只是从逻辑上当前函数没有返回而已。
#举例:
#1. 同步调用:apply一个累计1亿次的任务,该调用会一直等待,直到任务返回结果为止,但并未阻塞住(即便是被抢走cpu的执行权限,那也是处于就绪态);
#2. 阻塞调用:当socket工作在阻塞模式的时候,如果没有数据的情况下调用recv函数,则当前线程就会被挂起,直到有数据为止。
非阻塞:
#非阻塞和阻塞的概念相对应,指在不能立刻得到结果之前也会立刻返回,同时该函数不会阻塞当前线程。
小结:
#1. 同步与异步针对的是函数/任务的调用方式:同步就是当一个进程发起一个函数(任务)调用的时候,一直等到函数(任务)完成,而进程继续处于激活状态。而异步情况下是当一个进程发起一个函数(任务)调用的时候,不会等函数返回,而是继续往下执行当,函数返回的时候通过状态、通知、事件等方式通知进程任务完成。 #2. 阻塞与非阻塞针对的是进程或线程:阻塞是当请求不能满足的时候就将进程挂起,而非阻塞则不会阻塞当前进程
四、多进程实现
1、multiprocessing模块介绍
Python提供了multiprocessing。multiprocessing模块用来开启子进程,并在子进程中执行我们定制的任务(比如函数),该模块与多线程模块threading的编程接口类似。 multiprocessing模块的功能众多:支持子进程、通信和共享数据、执行不同形式的同步,提供了Process、Queue、Pipe、Lock等组件。 需要再次强调的一点是:与线程不同,进程没有任何共享状态,进程修改的数据,改动仅限于该进程内。
2、Process类介绍:为创建进程的类
主要方法:
#p为子进程 p.start():启动进程,并调用该子进程中的p.run()
p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法
p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
p.is_alive():如果p仍然运行,返回True
p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程
主要属性:
#p为子进程
p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
p.name:进程的名称
p.pid:进程的pid
p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)
3、创建并开启子进程
方式一:(常用)
from multiprocessing import Process
import time def task(name):
print('%s is running' %name)
time.sleep(2) if __name__ == '__main__': #在windows系统下,开子进程的代码必须写到这一行下面
p=Process(target=task,args=('egon',))
p.start() #只是在给操作系统发了一个信号,让操作系统去开进程(申请内存+拷贝父进程的地址空间)
print('主')
from multiprocessing import Process
import time
def work(name):
print('%s is piaoing' %name)
time.sleep(5)
print('%s piao end' %name)
if __name__=='__main__': #windows系统必须加
p=Process(target=work,args=('egon',))#args传参必须是个元组括号内要加逗号,
只是在给操作系统发一个信号,让操作系统去开进程
# # (申请内存,拷贝父进程的地址空间) p干的活是work 也可以以字典形式传:kwargs={'name':'egon'}
p.start()
print('主进程')
方式二:run() 名字是固定的
# multi 多 process进程
from multiprocessing import Process
import time class Myprocess(Process): # 自己的类
def __init__(self,name):
super().__init__() # 保证有父类的功能
self.name=name def run(self):
print('%s is running' % self.name)
time.sleep(2) if __name__ == '__main__':
p = Myprocess('egon')
p.start() # 调的是p.run()
print('主')
from multiprocessing import Process
import time
class work(Process):
def __init__(self,name):
super(work, self).__init__() # super()括号内的参数可以不用传,,保证有父类的功能
self.name=name
def run(self): #方法名run()不可以更换
print('%s is piaoing' %self.name)
time.sleep(5)
print('%s piao end' %self.name)
if __name__=='__main__': #windows系统必须加
p=work('egon')
p.start() # 调的是p.run()
print('主进程')
| 为管道符,在cmd输tasklist 是全部运行的进程,tasklist |findstr python 过滤出python
注意:进程的直接内存空间是彼此隔离的,如下例:
from multiprocessing import Process
n=100
#在windows系统中应该把全局变量定义在if __name__ == '__main__'之上
def work():
global n
n=0
print('子进程内: ',n)
if __name__ == '__main__':
p=Process(target=work)
p.start() #结果总为:0
print('主进程内: ',n) #结果总为:100
4、socket并发编程实例
可以实现多个客户端与服务端进行交流。
服务端:
from socket import *
from multiprocessing import Process server=socket(AF_INET,SOCK_STREAM)
server.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
server.bind(('127.0.0.1',8080))
server.listen(5) def talk(conn):
while True:
try:
msg=conn.recv(1024)
if not msg:break
conn.send(msg.upper())
except Exception:
break if __name__ == '__main__':
while True:
conn,client_addr=server.accept()
p=Process(target=talk,args=(conn,))
p.start()
客户端:
#多个客户端
from socket import *
client=socket(AF_INET,SOCK_STREAM)
client.connect(('127.0.0.1',8080))
while True:
msg=input('>>: ').strip()
if not msg:continue client.send(msg.encode('utf-8'))
msg=client.recv(1024)
print(msg.decode('utf-8'))
将进程干死:terminate
5、jion()方法详解
join方法的主要作用是等待子进程结束后执行主进程。
基于谁开的子进程谁来关
标准版
from multiprocessing import Process
import time,random
def func(name):
print('%s is running'% name)
time.sleep(random.randint(1,3))
print('%s is runend'% name) if __name__ == '__main__':
p1 = Process(target=func ,args=('egon',))
p2 = Process(target=func ,args=('alex',))
p3 = Process(target=func ,args=('lishi',))
p4 = Process(target=func ,args=('jassin',)) p1.start()
p2.start()
p3.start()
p4.start()
print('zhu') # 精简版
from multiprocessing import Process
import time,random def piao(name):
print('%s is piaoing' %name)
time.sleep(random.randint(1,3))
print('%s is done' %name) if __name__ == '__main__':
p1 = Process(target=piao, args=('alex',))
p2 = Process(target=piao, args=('wxx',))
p3 = Process(target=piao, args=('yxx',))
p_l = [p1, p2, p3]
for p in p_l:
p.start() for p in p_l:
p.join() print('主')
并行效果:
from multiprocessing import Process
import time
def piao(name):
print('%s is piaoing' %name)
time.sleep(3)
print('%s is piao end' %name)
if __name__=='__main__':
p1=Process(target=piao,args=('egon',))
p2=Process(target=piao,args=('alex',))
p3=Process(target=piao,args=('yuanhao',))
p4=Process(target=piao,args=('wupeiqi',))
start_time=time.time()
p1.start()
p2.start()
p3.start()
p4.start()
p1.join()
p2.join()
p3.join()
p4.join()
end_time=time.time()
print(end_time-start_time) #结果为:3.多
print('主线程') #最后才被打印
egon is running
lishi is running
alex is running
jassin is running
egon is run end
lishi is run end
alex is run end
jassin is run end
3.2911880016326904
zhu
解释:p.join()是让主线程等待p的结束,卡住的是主线程而绝非进程p,进程只要start就会在开始运行了,所以p1-p4.start()时,系统中已经有四个并发的进程了而我们p1.join()是在等p1结束,没错p1只要不结束主线程就会一直卡在原地,这也是问题的关键join是让主线程等,而p1-p4仍然是并发执行的,p1.join的时候,其余p2,p3,p4仍然在运行,等p1.join结束,可能p2,p3,p4早已经结束了,这样p2.join,p3.join.p4.join直接通过检测,无需等待所以4个join花费的总时间仍然是耗费时间最长的那个进程运行的时间。
串行效果:
from multiprocessing import Process
import time
def run(name):
print('%s is running' %name)
time.sleep(3)
print('%s is run end'%name)
if __name__ == '__main__':
p1 = Process(target=run,args=('egon',))
p2 = Process(target=run,args=('alex',))
p3 = Process(target=run,args=('lishi',))
p4 = Process(target=run,args=('jassin',))
start_time = time.time()
p1.start()
p1.join()
p2.start()
p2.join() p3.start()
p3.join() p4.start()
p4.join() end_time = time.time()
print(end_time - start_time)
print('zhu')
结果:
egon is running
egon is run end
alex is running
alex is run end
lishi is running
lishi is run end
jassin is running
jassin is run end
12.697726249694824
zhu
解释:以上p1,p2,p3,p4进程是上一个子进程执行完才逐一被启动,形成串行效果。
六、进程池(Pool)
多进程是实现并发的主要手段之一,但是通常会有如下问题:a.很明显需要并发执行的任务通常要远大于核数;b.一个操作系统不可能无限开启进程,通常有几个核就开几个进程;c.进程开启过多,效率反而会下降(开启进程是需要占用系统资源的,而且开启多余核数目的进程也无法做到并行)。
Pool可以提供指定数量的进程,供用户调用,当有新的请求提交到pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束,就重用进程池中的进程。执行任务的进程数始终位进程池中指定的那几个。
1、同步调用
同步调用:提交完任务后,在原地等待任务结束,一旦结束可以立刻拿到结果。
from concurrent.futures import ProcessPoolExecutor
import time,random,os
def run(name,n):
print('%s is running %s' %(name,os.getpid()))
time.sleep(1)
return n**2
if __name__ == '__main__':
p=ProcessPoolExecutor(4)
for i in range(10):
res=p.submit(run,'alex %s' %i,i).result() #同步调用#等进程执行完,并能得到结果,然后才开启下一个进程,相当于串行
print(res)
p.shutdown(wait=True)
print('主',os.getpid())
2、异步调用
异步调用:提交完任务后,不会在原地等待任务结束,会继续提交下一次任务,等到所有任务都结束后,才能get结果。
from concurrent.futures import ProcessPoolExecutor
import time,os
import random
def work(n):
print('%s is working' %(os.getpid()))
time.sleep(1)
return n**2 if __name__=='__main__':
p=ProcessPoolExecutor(4) #从无到有开启4个进程,而且一直是这4个进程
objs=[]
for i in range(10):
objs=p.submin(work,'alex %s'%i,i) #提交任务,不会在原地等结果
objs.append(obj)
'''异步apply_async用法:如果使用异步提交的任务,主进程需要使用jion,等待进程池内任务都处理完,然后可以用get收集结果,否则,主进程结束,进程池可能还没来得及执行,也就跟着一起结束了'''
p.shutdown(wait = True)
print('主',os.geipid())
for obj in objs:
print(obj.result())
''
'''
提交/调用任务的方式有两种:
同步调用:提交/调用一个任务,然后就在原地等着,等到该任务执行完毕拿到结果,再执行下一行代码
异步调用: 提交/调用一个任务,不在原地等着,直接执行下一行代码,结果? ''' # from multiprocessing import Process,Pool
from concurrent.futures import ProcessPoolExecutor
import time,random,os def piao(name,n):
print('%s is piaoing %s' %(name,os.getpid()))
time.sleep(1)
return n**2 if __name__ == '__main__':
p=ProcessPoolExecutor(4)
objs=[]
for i in range(10):
# res=p.submit(piao,'alex %s' %i,i).result() #同步调用
# print(res)
obj=p.submit(piao,'alex %s' %i,i) #异步调用
objs.append(obj) for obj in objs:
print(obj.result()) # 关门+等
# pool.close()
# pool.join()
p.shutdown(wait=True)
print('主',os.getpid())
******
from concurrent.futures import ProcessPoolExecutor
import time, random, os def piao(name, n):
print('%s is piaoing %s' % (name, os.getpid()))
time.sleep(1)
return n ** 2 if __name__ == '__main__':
p = ProcessPoolExecutor(4)
objs = []
start = time.time()
for i in range(10):
# res=p.submit(piao,'alex %s' %i,i).result() #同步调用
# print(res)
obj = p.submit(piao, 'alex %s' % i, i) # 异步调用
objs.append(obj) p.shutdown(wait=True)
print('主', os.getpid())
for obj in objs:
print(obj.result()) stop = time.time()
print(stop - start)
**
from concurrent.futures import ProcessPoolExecutor
import time,random,os def piao(name):
print('%s is piaoing %s' %(name,os.getpid()))
time.sleep(random.randint(1,4)) if __name__ == '__main__':
p=ProcessPoolExecutor(4) for i in range(10):
p.submit(piao,'alex %s' %i) p.shutdown(wait=True) # shutdown 关门 wait=True 等
print('主',os.getpid())
进程(并发,并行) join start 进程池 (同步异步)的更多相关文章
- 关于CPU核心,线程,进程,并发,并行,及java线程之间的关系
前言:作为一个转行java的小白,一直搞不清楚java中的多线程.于是来梳理一下关于CPU核心,线程,进程,并发,并行,及java线程之间的关系, 1.CPU角度来看: 我们以Intel的Core i ...
- python 并发编程 操作系统 进程 并发.并行 及 同步/异步,阻塞/非阻塞
操作系统: 多道技术背景: 提高工作效率(充分利用IO阻塞的时间) 同时执行多个任务 多道技术 空间复用:充分的利用内存空间 时间复用:充分利用IO阻塞时间 分时系统: 并发:提高了程序的工作效率 两 ...
- GIL 线程池 进程池 同步 异步 阻塞 非阻塞
1.GIL 是一个全局解释器锁,是一种互斥锁 为什么需要GIL锁:因为一个python.exe进程中只有一份解释器,如果这个进程开启了多个线程都要执行代码 多线程之间要竞争解释器,一旦竞争就有可能出现 ...
- GIL 线程池 进程池 同步 异步
1.GIL(理论 重点)2.线程池 进程池3.同步 异步 GIL 是一个全局解释器锁,是一个互斥锁 为了防止竞争解释器资源而产生的 为何需要gil:因为一个python.exe进程中只有一份解释器,如 ...
- GIL全局解释器锁,线程池与进程池 同步异步,阻塞与非阻塞,异步回调
GIL全局解释器锁 1.什么是GIL 官方解释:'''In CPython, the global interpreter lock, or GIL, is a mutex that prevents ...
- 进程| 线程 | 阻塞 | 阻塞&非阻塞 和 同步&异步
阻塞&非阻塞 阻塞IO 调用之后一定要等到系统内核完成所有的操作之后才结束,因此它的缺点:CPU等待IO,处理能力得不到充分利用. 非阻塞IO 为了解决阻塞IO带来的一些问题,内核提供了非阻塞 ...
- 使用ab.exe监测100个并发/100次请求情况下同步/异步访问数据库的性能差异
ab.exe介绍 ab.exe是apache server的一个组件,用于监测并发请求,并显示监测数据 具体使用及下载地址请参考:http://www.cnblogs.com/gossip/p/439 ...
- GIL 线程/进程池 同步异步
GIL 什么是GIL 全局解释器锁,本质是一把互斥锁,是加在cpython解释器上的一把锁, 同一个进程内的所有线程需要先抢到GIL锁,才能执行python代码 为什么要有GIL cpython解释器 ...
- 并发编程--一堆锁,GIL,同步异步,Event事件
目录 一堆锁 死锁现象(*****) 递归锁 RLock (了解) 信号量 (了解) GIL(*****) 什么时GIL锁 为什么需要GIL锁 Cpython解释器与GC的问题 GIL锁带来的问题 多 ...
- Python并发编程之同步\异步and阻塞\非阻塞
一.什么是进程 进程: 正在进行的一个过程或者说一个任务.而负责执行任务则是cpu. 进程和程序的区别: 程序仅仅只是一堆代码而已,而进程指的是程序的运行过程. 需要强调的是:同一个程序执行两次,那也 ...
随机推荐
- hibernate 一对多、多对多的配置
一对多 <class name="Question" table="questions" dynamic-insert="true" ...
- SLF4J日志系统在项目导入时频现的问题
一.概述 近期在导入一个已有的项目时,日志系统出现了一个问题.错误信息如下: SLF4J问题 SLF4J: Failed to load class "org.slf4j.impl.Stat ...
- Android 6.0 Kotlin 蓝牙BLE扫描
package com.arci.myapplication import android.os.Bundleimport android.support.design.widget.Snackbar ...
- sql 转
- DateTable To Json
private string aaaa(DataTable dt) { JavaScriptSerializer javaScriptSerializer = new JavaScriptSerial ...
- 20145217《信网络对抗》逆向与BOF基础实践
20145217<信网络对抗>逆向与BOF基础实践 内容: 一.简单机器指令,汇编语言 1.'objdump -d xxx|more'反汇编命令查看机器代码,'cat'显示文件内容,'xx ...
- MongoDB快速入门(十一)- sort() 方法
sort() 方法 要在 MongoDB 中的文档进行排序,需要使用sort()方法. sort() 方法接受一个文档,其中包含的字段列表连同他们的排序顺序.要指定排序顺序1和-1. 1用于升序排列, ...
- share point CSOM 客户端模式 创建 list
/// <summary> /// 创建新的列表 list /// </summary> /// <param name="web"></ ...
- Springer Latex投稿
大家好.我最近需要向springer旗下一期刊投稿,是用latex编写的.已经调试过,格式和出版的期刊比较接近.因为是第一次投国外期刊,所以没什么经验,在网上搜索了一些帖子,发现在投稿过程中还会出现这 ...
- 使用mybatis如果类属性名和数据库中的属性名不一样取值就会为null
使用mybatis时如果类属性名和数据库中的属性名不一样取值就会为null 这是不能再去改变javabean中的属性,只能改变sql语句.语句如下所示: <select id="sel ...