进程:运行中的程序

  进程和操作系统的关系:进程是操作系统调度和资源分配的最小单位,是操作系统的结构基础。

  那么为什么要有进程呢?

  程序在运行时,会使用各种硬件资源,如果他们之间没有界限,那么程序之间的数据必然会产生混乱。所以为了实现资源的隔离,就有了进程的概念。

  进程的调度方式:

  1,先到先服务算法(FCFS)

  先请求的进程就先进行处理。缺点:大作业先到,就会使后面的短作业不能得到及时处理。

  2,短作业优先算法

  处理起来简短的作业先进行处理。缺点:一些大的作业将会长时间得不到处理。

  3,时间片轮转算法

  给每个进程分配时间片,然后轮转者进行处理。缺点:一些重要任务将无法及时处理。

  4,多级反馈算法

  处理分多个级别,由高到低,高级别先执行,但是级别越低分配的时间越长。当一个进程进来时,先按FCFS在最高级别排队,当其在时间片内没有执行完成时,就把它放进下一个级别的,依次类推。因为低级别分配的时间更长,长进程就能得到更多的资源来完成处理。

  进程的并行和并发

并行:多核处理器,同时进行多个进程的工作
并发:资源有限的情况下,比如单核处理器,多个进程交替使用资源
区别:并行是真正的同时运行,而并发只是宏观上看起来像是同时运行

  进程的同步和异步

  同步

import time
from multiprocessing import Process
# multiprocessing模块:综合处理进程的包
def func():
time.sleep(1)
return '同步' if __name__ == '__main__':
p = Process(target=func)
ret = func()
print(ret) # 像这种上个工作完成下面才能进行的,就叫做同步进程

  异步

import time
from multiprocessing import Process
# multiprocessing模块:综合处理进程的包
def func():
time.sleep(1)
print('子进程') # 后打印 if __name__ == '__main__':
p = Process(target=func) # 创建一个进程对象 参数target传函数的名字
p.start() # 开始进程
print('父进程') # 先打印 # 像这种只是开始一个进程,而不管其结果,就进行自己接下来的工作的,就是异步进程

  阻塞和非阻塞

  阻塞:需要等待信息才能继续执行时,是会产生阻塞。例如:input输入时,time.sleep时等。

import time
input('>>>')
print('')
time.sleep(2)
print('')

  非阻塞:和阻塞相反的状态。

  进程三种状态之间的转换

  守护进程

守护进程:使守护进程在父进程执行完成后就结束,不会像正常的子进程那样,主进程在执行完成后还要等子进程执行完成。
1,守护进程的开启设置一定要放在进程开启之前
2,守护进程中不能再开启进程

  举例

import time
from multiprocessing import Process def func():
while True:
time.sleep(10)
print('过去了10秒') if __name__ == '__main__':
p = Process(target=func)
p.daemon = True # 一定在进程开启之前设置
p.start()
for i in range(100):
time.sleep(1)
print('*'*i)

  进程的几个方法和属性查看

# is_alive和terminate
import time
from multiprocessing import Process def func():
print('')
time.sleep(1)
print('') if __name__ == '__main__':
p = Process(target=func)
p.start()
print(p.is_alive()) # True 判断子进程是否还存在
time.sleep(0.1)
p.terminate() # 结束子进程 通过操作系统来完成
time.sleep(1)
print(p.is_alive())
# pid和name 属性查看
from multiprocessing import Process def func():
pass if __name__ == '__main__':
p = Process(target=func)
p.start()
print(p.pid) # 28716 查看子进程的进程id
print(p.name) # Process-1 查看子进程的进程名

  进程锁

锁:在并发编程中,保证数据的安全。使多个进程不能同时对数据进行操作,从而造成数据处理逻辑混乱。

  来一个买火车票的例子

创建ticket文件,里面模拟序列化内容:{"count": 4},定义4张票。

import time
import random
import json
from multiprocessing import Lock
from multiprocessing import Process def search():
with open('ticket') as f:
print('票数:%d' %json.load(f)['count']) def get(i):
with open('ticket') as f:
ticket_num = json.load(f)['count']
if ticket_num > 0:
time.sleep(random.random())
with open('ticket', 'w') as f:
json.dump({'count': ticket_num-1}, f)
print('%s,买到票了' %i)
else:
print('%s,没有票了' %i) def func(i, lock):
search()
lock.acquire() # 等待人来拿钥匙开门 没有人来就阻塞
get(i)
lock.release() # 处理完事情后离开关上门并放回钥匙 if __name__ == '__main__':
lock = Lock() # 创建一个锁对象
for i in range(10):
p = Process(target=func, args=(i, lock))
p.start()

进程锁实例

  信号量

信号量:和进程锁类似它也是限定多进程的并发,但它可以指定能同时进行的进程数,而不单单是一次只能一个。
import time
import random
from multiprocessing import Process
from multiprocessing import Semaphore def func(p, S):
S.acquire() # 和进程锁相同,等待钥匙开门 只是这里同时开了4道门
print('%s办理取钱' %p)
time.sleep(random.randint(1, 10))
S.release() # 和进程锁相同,关门并放回钥匙
print('%s完成办理' %p) if __name__ == '__main__':
sem = Semaphore(4) # 创建一个信号量对象,指定能同时接收的信号量为4
for i in range(20):
Process(target=func, args=(i, sem)).start()

信号量例子

  事件

事件:异步阻塞 用于主进程控制其他进程的执行。
1,waite 事件实例化之后默认为阻塞
2,set 将阻塞状态变为非阻塞
3,clear 将非阻塞状态变为阻塞
4,is_set 判断事件的阻塞状态 True为非阻塞 False为阻塞
import time
import random
from multiprocessing import Process
from multiprocessing import Event def traffic_light(e):
while True:
if e.is_set():
time.sleep(3)
print('红灯亮')
e.clear()
else:
time.sleep(3)
print('绿灯亮')
e.set() def car(i, e):
e.wait()
print(i) if __name__ == '__main__':
event = Event() # 创建一个事件对象
Process(target=traffic_light, args=(event,)).start()
for i in range(100):
if i % random.randint(2, 5) == 0:
time.sleep(random.randint(1, 3))
Process(target=car, args=(i, event)).start()

事件例子

  队列

队列:先进先出 实现不同进程之间的通信
queue = Queue() 不限定队列的长度 queue = Queue(10) 限定队列的长度为10
1,put 放入数据 当队列有限制且数据放满时,阻塞
2,get 取出数据 当队列为空时,阻塞
import time
from multiprocessing import Process
from multiprocessing import Queue def producer(q):
for i in range(50):
q.put('包子%d' %i) def consumer(q):
while True:
time.sleep(1)
print(q.get()) if __name__ == '__main__':
queue = Queue(10)
Process(target=producer, args=(queue,)).start()
Process(target=consumer, args=(queue,)).start()

队列例子

  JoinableQueue

  创建可连接的共享进程队列。这就像是一个Queue对象,但队列允许项目的使用者通知生产者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。

JoinableQueue() 实例化后放数据和取数据和队列相同
join:接收数据处理完成后的消息,判断全部完成后再结束进程
task_done:完成处理后告诉对应的数据生产者
import time
import random
from multiprocessing import Process
from multiprocessing import JoinableQueue def producer(q):
for i in range(20):
q.put('数据%d' %i) # 生产数据
time.sleep(random.randint(1, 3))
q.join() # 接收数据处理完成后的消息,全部完成后结束进程 def consumer(q):
while True:
print(q.get()) # 消费数据
q.task_done() # 完成处理后告诉对应的生产者 if __name__ == '__main__':
queue = JoinableQueue()
p1 = Process(target=producer, args=(queue,))
p1.start()
p2 = Process(target=producer, args=(queue,))
p2.start()
c1 = Process(target=consumer, args=(queue,))
c1.daemon = True # 守护进程
c1.start()
c2 = Process(target=consumer, args=(queue,))
c2.daemon = True # 守护进程
c2.start()
c3 = Process(target=consumer, args=(queue,))
c3.daemon = True # 守护进程
c3.start() p1.join() # 阻塞,子进程p1结束后停止阻塞
p2.join() # 阻塞,子进程p2结束后停止阻塞

例子

  管道

管道:双向通信 但是数据不安全  相当于没有锁的队列
send:发送数据
recv:接收数据 当管道另一边关闭,且管道中没有内容时就会报错(EOFError)
close: 关闭管道口 一般在进程中用不到的管道口就可以先关闭掉
import time
from multiprocessing import Pipe
from multiprocessing import Process def func1(p):
open1, open2 = p
open2.close()
for i in range(100):
time.sleep(0.1)
open1.send(i)
open1.close() def func(p, i):
open1, open2 = p
open1.close()
while True:
try:
print(i, open2.recv())
except EOFError:
open2.close()
break if __name__ == '__main__':
open1, open2 = Pipe() # 创建一个管道,得到一个元组,里面的两个元素相当于管道的两端
pr1 = Process(target=func1, args=((open1, open2),)).start()
p1 = Process(target=func, args=((open1, open2), 1)).start()
p2 = Process(target=func, args=((open1, open2), 2)).start()
p3 = Process(target=func, args=((open1, open2), 3)).start()
open1.close()
open2.close()

管道例子

  进程池

进程池:因为设备的硬件资源有限,所以不能无限的开启进程,更合理的协调进程数和硬件之间的关系,才能拥有更高的数据处理效率
进程池就是为了合理利用资源,减小进程调度难度,节省过多进程开启消耗的时间。
import time
import random
from multiprocessing import Pool
from multiprocessing import Process def func(s):
s += 1 if __name__ == '__main__':
pool = Pool(9) # 进程池对象,参数指定同时处理的进程数,一般是CPU核数加一
start = time.time()
pool.map(func, range(100)) # 循环处理100个任务
pool.close() # 不允许再添加任务
pool.join()
print(time.time() - start) # 0.13385581970214844
start = time.time()
lis = []
for i in range(100):
p = Process(target=func, args=(i,))
p.start()
lis.append(p)
[j.join() for j in lis]
print(time.time() - start) # 2.0339081287384033

进程池和普通进程效率对比

 
import time
import random
from multiprocessing import Pool
def func(s):
time.sleep(random.randint(1, 3))
s += 1
print(s) if __name__ == '__main__':
pool = Pool(9)
for i in range(10):
ret = pool.apply(func, args=(i,)) # 同步提交任务 可以接收子进程的返回值
print(ret)
print('主进程') # 最后打印
if __name__ == '__main__':
pool = Pool(9)
for i in range(20):
pool.apply_async(func, args=(i,)) # 异步提交任务 也可以接收子进程返回值
pool.close()
pool.join() # 阻塞 否则主进程会直接结束

  回调函数

  多用于爬虫,处理高I/O操作

import os
from multiprocessing import Pool def func(s):
return s*'*' def call(arg): # 回调函数,在主进程中执行,参数只能接收子进程的返回值
print('回调函数%s' %os.getpid()) # 回调函数20828
print(arg) if __name__ == '__main__':
pool = Pool(5)
print('主进程%s' %os.getpid()) # 主进程20828
for i in range(10):
pool.apply_async(func, args=(i,), callback=call) # callback设置回调函数,将开启的子进程的返回值作为参数传给函调函数
pool.close()
pool.join()

  Manger模块

  提供多种数据类型用于进程之间的数据共享,但是不够安全

from multiprocessing import Manager
from multiprocessing import Process def func(dic):
dic['count'] -= 1 if __name__ == '__main__':
manager = Manager() # 创建Manager对象
d = manager.dict({'count': 100}) # 对象.数据类型 创建共享数据类型
lis = []
for i in range(100):
p = Process(target=func, args=(d,))
p.start()
lis.append(p)
[j.join() for j in lis]
print(d) # 打印{'count': 2} 数据不安全

  

python编程之进程的更多相关文章

  1. python编程系列---进程池的优越性体验

    1.通过multiprocessing.Process()类创建子进程 import multiprocessing, time, os, random def work(index): " ...

  2. Python 多进程编程之 进程间的通信(在Pool中Queue)

    Python 多进程编程之 进程间的通信(在Pool中Queue) 1,在进程池中进程间的通信,原理与普通进程之间一样,只是引用的方法不同,python对进程池通信有专用的方法 在Manager()中 ...

  3. Python 多进程编程之 进程间的通信(Queue)

    Python 多进程编程之 进程间的通信(Queue) 1,进程间通信Process有时是需要通信的,操作系统提供了很多机制来实现进程之间的通信,而Queue就是其中的一个方法----这是操作系统开辟 ...

  4. python并发编程之进程、线程、协程的调度原理(六)

    进程.线程和协程的调度和运行原理总结. 系列文章 python并发编程之threading线程(一) python并发编程之multiprocessing进程(二) python并发编程之asynci ...

  5. python线程和进程编程对比

    import timefrom concurrent.futures import ThreadPoolExecutor,as_completedfrom concurrent.futures imp ...

  6. Python笔记_第四篇_高阶编程_进程、线程、协程_5.GPU加速

    Numba:高性能计算的高生产率 在这篇文章中,笔者将向你介绍一个来自Anaconda的Python编译器Numba,它可以在CUDA-capable GPU或多核cpu上编译Python代码.Pyt ...

  7. python中的进程、线程(threading、multiprocessing、Queue、subprocess)

    Python中的进程与线程 学习知识,我们不但要知其然,还是知其所以然.你做到了你就比别人NB. 我们先了解一下什么是进程和线程. 进程与线程的历史 我们都知道计算机是由硬件和软件组成的.硬件中的CP ...

  8. Python::OS 模块 -- 进程参数

    os模块的简介请参看 Python::OS 模块 -- 简介 os模块的文件和目录操作 Python::OS 模块 -- 文件和目录操作 os模块的进程管理 Python::OS 模块 -- 进程管理 ...

  9. Python::OS 模块 -- 进程管理

    os模块的简介参看 Python::OS 模块 -- 简介 os模块的文件相关操作参看 Python::OS 模块 -- 文件和目录操作 os模块的进程参数 Python::OS 模块 -- 进程参数 ...

随机推荐

  1. python正则表达式应用 重组分词

  2. 【php】php开发的前期准备

    原文来自:http://www.cnblogs.com/sows/p/6867675.html (博客园的)风马一族 侵犯版本,后果自负 php介绍 什么php? 一种服务器端的 HTML 脚本/编程 ...

  3. 只在需要的时候 Polyfill 你的 JavaScript 代码

    本文转载自 Pascal Klau,他是一名来自德国南部的实习生,他讨厌不必要的 HTTP 请求,也不爱吃西兰花.Pascal 将说明使用 polyfill 服务的一种方式,在这种方式下你可能可以完全 ...

  4. PersistGate轻松几步让Redux实现数据持久化

    在开发的过程中,数据用redux管理,觉得希望将数据持久化保存,也就是说当用户下一次打开app或网站的时候,我们希望浏览器/APP自动加载出上次的数据,怎么办?有没有一个

  5. 【水滴石穿】AB-B-Clone

    地址: 源码 运行效果 无别的效果,代码如下 //index.js /** * @format * @lint-ignore-every XPLATJSCOPYRIGHT1 */ import {Ap ...

  6. thinkphp php审核后返回信息给html

    1.die("<script>alert('至少选择一个收款方式!');history.back(-1);</script>");

  7. 3DSMAX安装失败怎样卸载重新安装3DSMAX,解决3DSMAX安装失败的方法总结

    技术帖:3DSMAX没有按照正确方式卸载,导致3DSMAX安装失败.楼主也查过网上关于如何解决3DSMAX安装失败的一些文章,是说删除几个3DSMAX文件和3DSMAX软件注册表就可以解决3DSMAX ...

  8. Python基础:00概述

    1:续行符 在Python中,一般是一行一个语句.一个过长的语句可以使用反斜杠( \ )分解成几行. 有两种例外情况,一个语句不使用反斜线也可以跨行.在使用闭合操作符时,单一语句可以跨多行,例如:在含 ...

  9. 突破!阿里云CDN实现毫秒级全网刷新

    通常在某网站使用了CDN节点来实现内容分发加速后,当源站内容更新的时候,CDN刷新系统会通过提交刷新请求将CDN节点上的指定缓存内容强制过期.当用户访问的时候,CDN节点将回源获取最新内容返回给用户, ...

  10. TensorFlow 池化层

    在 TensorFlow 中使用池化层 在下面的练习中,你需要设定池化层的大小,strides,以及相应的 padding.你可以参考 tf.nn.max_pool().Padding 与卷积 pad ...