import time
import os
import multiprocessing from multiprocessing import Queue, pool """
一.Python 使用多进程实现并发编程:
因为cpython解释器中有GIL存在的原因(每个进程都会维护一个GIL,jpython解释器没有这个问题),所以在一个进程内,
即使服务器是多核cpu,同一时刻只能有一个线程在执行任务(一个进程内)。如果存在较多IO,使用多线程是可以提高处理速度的,
但是如果是cpu密集型任务,使用多线程是有一定瓶颈的。如果需要频繁的创建和销毁任务,可以使用多线程。cpu密集型任务可以考虑使用多进程。 二.multiprocessing模块就是跨平台版本的多进程模块,提供了一个Process类来代表一个进程对象,这个对象可以理解为是一个独立的进程,可以执行另外的事情.Process语法结构如下:
Process([group [, target [, name [, args [, kwargs]]]]]) target:如果传递了函数的引用,可以任务这个子进程就执行这里的代码
args:给target指定的函数传递的参数,以元组的方式传递
kwargs:给target指定的函数传递命名参数
name:给进程设定一个名字,可以不设定
group:指定进程组,大多数情况下用不到
Process创建的实例对象的常用方法: start():启动子进程实例(创建子进程)
is_alive():判断进程子进程是否还在活着
join([timeout]):是否等待子进程执行结束,或等待多少秒
terminate():不管任务是否完成,立即终止子进程
Process创建的实例对象的常用属性: name:当前进程的别名,默认为Process-N,N为从1开始递增的整数
pid:当前进程的pid(进程号) 三.进程间无法直接共享内存,所以需要使用Queue进行数据的交互:
初始化Queue()对象时(例如:q=Queue()),若括号中没有指定最大可接收的消息数量,或数量为负值,那么就代表可接受的消息数量没有上限(直到内存的尽头); Queue.qsize():返回当前队列包含的消息数量; Queue.empty():如果队列为空,返回True,反之False ; Queue.full():如果队列满了,返回True,反之False; Queue.get([block[, timeout]]):获取队列中的一条消息,然后将其从列队中移除,block默认值为True; 1)如果block使用默认值,且没有设置timeout(单位秒),消息列队如果为空,此时程序将被阻塞(停在读取状态),直到从消息列队读到消息为止,如果设置了timeout,则会等待timeout秒,若还没读取到任何消息,则抛出"Queue.Empty"异常; 2)如果block值为False,消息列队如果为空,则会立刻抛出"Queue.Empty"异常; Queue.get_nowait():相当Queue.get(False); Queue.put(item,[block[, timeout]]):将item消息写入队列,block默认值为True; 1)如果block使用默认值,且没有设置timeout(单位秒),消息列队如果已经没有空间可写入,此时程序将被阻塞(停在写入状态),直到从消息列队腾出空间为止,如果设置了timeout,则会等待timeout秒,若还没空间,则抛出"Queue.Full"异常; 2)如果block值为False,消息列队如果没有空间可写入,则会立刻抛出"Queue.Full"异常; Queue.put_nowait(item):相当Queue.put(item, False); 注意:
多个进程同时对一个队列进行读取数据时,有可能会发生数据丢失的情况
""" def multi_1():
  # 测试主进程默认会等待子进程
time.sleep(2)
print("multi_1 子进程运行结束") def multi_2(pid, name="lowman"):
  # 测试向子进程的任务函数中传递参数
time.sleep(2)
print("主进程的pid:{}".format(pid))
# print(name) def test_queue_write(queue):
  # 往队列中写入数据
my_list = ["L", "O", "W", "M", "A", "N"]
for i in my_list: # 判断队列是否已满,这样设置的话,需要注意数据量的大小和队列的容量,否则循环写入数据的时候会造成的数据的丢失
# if not queue.full():
# queue.put(i) # 如果队列已满,就会阻塞
queue.put(i)
print("test_queue_write子进程:所有数据都已写入了队列中") def test_queue_read(queue):
  # 从队列中取出数据
while True:
# 判断队列是否为空
if not queue.empty():
print(queue.get())
else:
break def test_multi():
# 创建一个子进程,并将需要执行的目标函数使用target参数进行传递
p = multiprocessing.Process(target=multi_1) # args:给固定参数传参,最后必须带一个逗号 "," kwargs:给命名参数传参
p_2 = multiprocessing.Process(target=multi_2, args=(os.getpid(), ), kwargs={"name": "xienuo"}) # p 子进程 守护主进程,当主进程执行完成以后,主进程不会等待 p 子进程
# p.daemon = True # 启动子进程,默认情况主进程会守护所有子进程,等所有子进程运行结束后,才会退出
p.start()
p_2.start() # 主进程执行完毕,直接销毁 p 子进程,不管子进程是否已执行完毕,和daemon具有相似的功能
# p.terminate() # 等待 p 子进程结束后再执行下一步
# p.join()
# 等待 p_2 子进程结束后再执行下一步
# p_2.join() # 父进程创建Queue,并传给各个子进程,可以设置队列的上限,不设置则表示没有上限
q = Queue()
pw = multiprocessing.Process(target=test_queue_write, args=(q,))
pr = multiprocessing.Process(target=test_queue_read, args=(q,)) pw.start()
# 这里设置成了让写操作先完成, 再进行读操作(阻塞),这样设置的话其实就相当于是同步执行,影响了性能
pw.join()
pr.start() print("默认情况下:主进程运行结束,会等待子进程") test_multi()

Python进程池的使用请点击:https://www.cnblogs.com/lowmanisbusy/p/10259235.html

python 使用多进程实现并发编程/使用queue进行进程间数据交换的更多相关文章

  1. python之旅:并发编程之多进程

    一 multiprocessing模块介绍 python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程.P ...

  2. 《转载》Python并发编程之线程池/进程池--concurrent.futures模块

    本文转载自Python并发编程之线程池/进程池--concurrent.futures模块 一.关于concurrent.futures模块 Python标准库为我们提供了threading和mult ...

  3. python并发编程基础之守护进程、队列、锁

    并发编程2 1.守护进程 什么是守护进程? 表示进程A守护进程B,当被守护进程B结束后,进程A也就结束. from multiprocessing import Process import time ...

  4. Python并发编程03 /僵孤进程,孤儿进程、进程互斥锁,进程队列、进程之间的通信

    Python并发编程03 /僵孤进程,孤儿进程.进程互斥锁,进程队列.进程之间的通信 目录 Python并发编程03 /僵孤进程,孤儿进程.进程互斥锁,进程队列.进程之间的通信 1. 僵尸进程/孤儿进 ...

  5. 【python】-- 多进程的基本语法 、进程间数据交互与共享、进程锁和进程池的使用

    多进程 进程之间是相互独立的,python是启动进程的时候,是启动的是原生进程.进程是没有GIL锁的,而且不存在锁的概念,进程之间的数据式不能共享的,而线程是可以的. 1.进程的定义 用mulipro ...

  6. Python多进程-进程间数据的传递

    两个进程间的数据是独立的,要进行数据传递的话可通过几个方法 Queue 通过队列来进行进程间数据的传递 # -*- coding:utf-8 -*- __author__ = "MuT6 S ...

  7. 子进程回收资源两种方式,僵尸进程与孤儿进程,守护进程,进程间数据隔离,进程互斥锁,队列,IPC机制,线程,守护线程,线程池,回调函数add_done_callback,TCP服务端实现并发

    子进程回收资源两种方式 - 1) join让主进程等待子进程结束,并回收子进程资源,主进程再结束并回收资源. - 2) 主进程 “正常结束” ,子进程与主进程一并被回收资源. from multipr ...

  8. Python 进程间数据交互

    进程间通信:进程之间必须需要中间件. 不同进程间内存是不共享的,要想实现两个进程间的数据交换     Queues:实现传输两个进程的数据 线程queue,访问数据只能在一个进程内进行线程与线程之间的 ...

  9. Python进阶----进程间数据隔离, join阻塞等待, 进程属性, 僵尸进程和孤儿进程, 守护进程

    Python进阶----进程间数据隔离, join阻塞等待, 进程属性, 僵尸进程和孤儿进程, 守护进程 一丶获取进程以及父进程的pid 含义:    进程在内存中开启多个,操作系统如何区分这些进程, ...

随机推荐

  1. leetcode560

    public class Solution { public int SubarraySum(int[] nums, int k) { , result = ; Dictionary<int, ...

  2. BASEDIR

    1)正常写python程序会有一个可执行的bin.py文件,假如这个文件需要导入my_module里面定义的模块,应该怎么设置sys.path(此时可以直接导入), 因为bin和model属于同级目录 ...

  3. API接口认证

    restful API接口可以很方便的让其他系统调用,为了让指定的用户/系统可以调用开放的接口,一般需要对接口做认证; 接口认证有两种方式: 1.认证的token当做post/get的参数,serve ...

  4. Windows下用VS2015+MSYS编译OpenH264

    因为项目用到了OpenH264,编译的过程不想做过多研究,搜了下,有网页可以参考,遂记录下来,并在后面做一些补充. 原帖地址:http://blog.csdn.net/dbyoung/article/ ...

  5. 源码解析之AQS源码解析

    要理解Lock首先要理解AQS,而要理解并发类最好的方法是先理解其并发控制量不同值的含义以及该类运作流程,然后配合一步步看源码.该类有一个重要的控制量是WaitStates,节点的状态值. /** w ...

  6. Java的学习05

    今天学习了,Java中的LinkedList类.这个类需要用到链表的知识,以前一直以为,只有c/c++有链表.今天才知道,原来其他语言.也有链表,而且还是双向链表. /** * 自定义一个链表 * @ ...

  7. k8s之配置flanneld网络

    Flannel是Overlay网络的一种,也是将源数据包封装在另一种网络包里面进行路由转发和通信,目前已经支持UDP.VXLAN.AWS VPC和GCE路由等数据转发方式. Flannel通过给每台宿 ...

  8. C++ 11 创建和使用 unique_ptr

    unique_ptr 不共享它的指针.它无法复制到其他 unique_ptr,无法通过值传递到函数,也无法用于需要副本的任何标准模板库 (STL) 算法.只能移动unique_ptr.这意味着,内存资 ...

  9. elasticsearch5安装

    环境: centos7 es 5.4.3 es安装 一.下载 wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsear ...

  10. 复用微信小程序源码包后仍然有原小程序的版本管理怎么处理

    前言: 复用微信小程序源码包后,重新创建项目导入源码包,会发现开发者工具版本管理中仍然有原来小程序的版本,这样就不太好了.毕竟是一个新的小程序,需要有新的版本控制的.那么这个问题怎么处理呢? 解决方案 ...