python 线程队列、线程池、全局解释器锁GIL
一、线程队列
队列特性:取一个值少一个,只能取一次,没有值的时候会阻塞,队列满了,也会阻塞
queue队列 :使用import queue,用法与进程Queue一样
queue is especially useful in threaded programming when information must be exchanged safely between multiple threads.
三种类型:
(1)先进先出 (fifo) q=queue.Queue
先进先出队列
(2)#后进先出,先进后出 (Lifo) q=queue.LifoQueue
先进后出队列
(3)优先队列 (Priority) q=queue.PriorityQueue(5)
优先队列
二、python 标准模块--concurrent.futures
到这里就差我们的线程池没有讲了,我们用一个新的模块给大家讲,早期的时候我们没有线程池,现在python提供了一个新的标准或者说内置的模块,这个模块里面提供了新的线程池和进程池,之前我们说的进程池是在multiprocessing里面的,现在这个在这个新的模块里面,他俩用法上是一样的。
为什么要将进程池和线程池放到一起呢,是为了统一使用方式,使用threadPollExecutor和ProcessPoolExecutor的方式一样,而且只要通过这个concurrent.futures导入就可以直接用他们两个了.
模块方法解析
concurrent.futures模块提供了高度封装的异步调用接口
ThreadPoolExecutor:线程池,提供异步调用
ProcessPoolExecutor: 进程池,提供异步调用
Both implement the same interface, which is defined by the abstract Executor class. #2 基本方法
#submit(fn, *args, **kwargs)
异步提交任务 #map(func, *iterables, timeout=None, chunksize=1)
取代for循环submit的操作 #shutdown(wait=True)
相当于进程池的pool.close()+pool.join()操作
wait=True,等待池内所有任务执行完毕回收完资源后才继续
wait=False,立即返回,并不会等待池内的任务执行完毕
但不管wait参数为何值,整个程序都会等到所有任务执行完毕
submit和map必须在shutdown之前 #result(timeout=None)
取得结果 #add_done_callback(fn)
回调函数
三、concurrent.futures模块的应用:线程池、进程池
submit()和shutdown()的应用
import time
from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor def fun(n):
time.sleep(1)
return n*n if __name__ == '__main__':
t_p=ThreadPoolExecutor(max_workers=4) #创建线程池,池子中只有四个线程可以同时运行
#从concurrent.futures引入ThreadPoolExecutor,ProcessPoolExecutor,可以让进程与线程之间的代码通用,只需将
# ThreadPoolExecutor与ProcessPoolExecutor互换
# t_p=ProcessPoolExecutor(max_workers=4)#创建进程池,池子中只有四个进程可以同时运行,
res_lst=[]
for i in range(1,11):
res=t_p.submit(fun,i) #submit(func,*args) 创建线程,返回值是线程对象
# print(res) #获取线程对象,并没有执行线程的函数 <Future at 0x1df505f2390 state=pending>
# print(res.result()) #for 循环内部的result获取对象结果,会阻塞程序运行,直至拿到该线程的结果
res_lst.append(res) #按照先后循序存放线程结果 [res1,res2...res10]
t_p.shutdown() #相当于 pool.close() +pool.join() 确保池子里面的线程全部执行完毕,再进行主程序代码
print("主程序结束")
#从结果对象列表中取数据
for res1 in res_lst:
print(res1.result())
submit+shutdown线程代码
我们只需要更改一句语句就可以实现,线程到进程的改变
(更改前)t_p=ThreadPoolExecutor(max_workers=4)
(更改后)t_p=ProcessPoolExecutor(max_workers=4)
import time
from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor def fun(n):
time.sleep(1)
return n*n if __name__ == '__main__':
# t_p=ThreadPoolExecutor(max_workers=4) #创建线程池,池子中只有四个线程可以同时运行
#从concurrent.futures引入ThreadPoolExecutor,ProcessPoolExecutor,可以让进程与线程之间的代码通用,只需将
# ThreadPoolExecutor与ProcessPoolExecutor互换
t_p=ProcessPoolExecutor(max_workers=4)#创建进程池,池子中只有四个进程可以同时运行,
res_lst=[]
for i in range(1,11):
res=t_p.submit(fun,i) #submit(func,*args) 创建线程,返回值是线程对象
# print(res) #获取线程对象,并没有执行线程的函数 <Future at 0x1df505f2390 state=pending>
# print(res.result()) #for 循环内部的result获取对象结果,会阻塞程序运行,直至拿到该线程的结果
res_lst.append(res) #按照先后循序存放线程结果 [res1,res2...res10]
t_p.shutdown() #相当于 pool.close() +pool.join() 确保池子里面的线程全部执行完毕,再进行主程序代码
print("主程序结束")
#从结果对象列表中取数据
for res1 in res_lst:
print(res1.result())
submit+shutdown进程代码
map方法的使用:
import time
from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor
from multiprocessing import Pool def func(n):
time.sleep(1)
return n * n if __name__ == '__main__':
t_p = ThreadPoolExecutor(max_workers=4)
#map(func,可迭代对象) 表示异步提交任务
res = t_p.map(func,range(10)) #与进程的方式一样 ,但是不自带close()+join()
t_p.shutdown()
print('主线程结束')
for i in res:
print(i)
#multiprocess中Pool.map
pool=Pool(4)
ret=pool.map(func,range(10)) #自带pool.close()+pool.join()
print(ret) #结果列表
for i in ret:
print(i)
与multiprocess中的map对比
callback回调函数的使用
importtimefromconcurrent.futuresimportThreadPoolExecutor,ProcessPoolExecutordeffun(n):time.sleep(1)returnn*ndefcall_back(m):print(">>>",m)print(m.result())return"返回"if__name__=='__main__':t_p=ThreadPoolExecutor(max_workers=4)res=t_p.submit(fun,10).add_done_callback(call_back)#无法接收回调函数的值print(res)#None
回调函数的使用
四、全局解释器锁GIL (详情参考:https://www.cnblogs.com/clschao/articles/9705317.html)
首先,一些语言(java、c++、c)是支持同一个进程中的多个线程是可以应用多核CPU的,也就是我们会听到的现在4核8核这种多核CPU技术的牛逼之处。那么我们之前说过应用多进程的时候如果有共享数据是不是会出现数据不安全的问题啊,就是多个进程同时一个文件中去抢这个数据,大家都把这个数据改了,但是还没来得及去更新到原来的文件中,就被其他进程也计算了,导致数据不安全的问题啊,所以我们是不是通过加锁可以解决啊,多线程大家想一下是不是一样的,并发执行就是有这个问题。但是python最早期的时候对于多线程也加锁,但是python比较极端的(在当时电脑cpu确实只有1核)加了一个GIL全局解释锁,是解释器级别的,锁的是整个线程,而不是线程里面的某些数据操作,每次只能有一个线程使用cpu,也就说多线程用不了多核,但是他不是python语言的问题,是CPython解释器的特性,如果用Jpython解释器是没有这个问题的,Cpython是默认的,因为速度快,Jpython是java开发的,在Cpython里面就是没办法用多核,这是python的弊病,历史问题,虽然众多python团队的大神在致力于改变这个情况,但是暂没有解决。(这和解释型语言(python,php)和编译型语言有关系吗???待定!,编译型语言一般在编译的过程中就帮你分配好了,解释型要边解释边执行,所以为了防止出现数据不安全的情况加上了这个锁,这是所有解释型语言的弊端??)


简述:1、执行.py文件的时候,首先创建一个进程;
2、找到python.exe执行器,在内存中执行,并且将py文件中的python代码拷贝一份到内存中;
3、同时只允许一个线程进入GIL锁里面进行编译成.pyc文件和通过虚拟机编译二进制文件,编译好的二进制文件直接给cpu运行。
注意:GIL锁是互斥锁,当一个线程进入了python.exe解析器中,如果遇到I/O操作,系统自动回收GIL权限,并记录切换的状态,下一个线程通过GIL锁进入了python.exe中解析,遇到i/o操作就切换,不断的执行。
五、GIL与Lock


如果没有lock锁,在数据操作的过程中,线程通过GIL锁进入解析器中,遇到I/O操作会回收,线程的GIL锁权限,然后其他线程就可以拿到锁进入解析器,这样之前的数据还没来得及修改,就被下一个线程获得数据,这样就会造成数据混乱。如果有lock锁,就算系统回收了GIL锁的权限,但后面的线程都在lock锁的外面,一直属于阻塞状态,不会进行lock锁中的数据,这样就保证了数据的安全性,但是数据处理效率减低了。
python 线程队列、线程池、全局解释器锁GIL的更多相关文章
- 全局解释器锁GIL & 线程锁
1.GIL锁(Global Interpreter Lock) Python代码的执行由Python虚拟机(也叫解释器主循环)来控制.Python在设计之初就考虑到要在主循环中,同时只有一个线程在执行 ...
- python 什么是全局解释器锁GIL
什么是全局解释器锁GIL Python代码的执行由Python 虚拟机(也叫解释器主循环,CPython版本)来控制,Python 在设计之初就考虑到要在解释器的主循环中,同时只有一个线程在执行,即在 ...
- 21.线程,全局解释器锁(GIL)
import time from threading import Thread from multiprocessing import Process #计数的方式消耗系统资源 def two_hu ...
- Python如何规避全局解释器锁(GIL)带来的限制
编程语言分类概念介绍(编译型语言.解释型语言.静态类型语言.动态类型语言概念与区别) https://www.cnblogs.com/zhoug2020/p/5972262.html Python解释 ...
- 全局解释器锁GIL
我们使用高并发,一次是创建1万个线程去修改一个数并打印结果看现象: from threading import Thread import os def func(args): global n n ...
- 并发编程——全局解释器锁GIL
1.全局解释器锁GIL GIL其实就是一把互斥锁(牺牲了效率但是保证了数据的安全). 线程是执行单位,但是不能直接运行,需要先拿到python解释器解释之后才能被cpu执行 同一时刻同一个进程内多个线 ...
- python 多线程编程之使用进程和全局解释器锁GIL
本文主要介绍如何在python中使用线程. 全局解释器锁: python代码的执行是由python虚拟机(又名解释器主循环)进行控制的.python中,主循环中同时只能有一个控制线程在执行,就像单核C ...
- Python全局解释器锁 -- GIL
首先强调背景: 1.GIL是什么?GIL的全称是Global Interpreter Lock(全局解释器锁),来源是python设计之初的考虑,为了数据安全所做的决定. 2.每个CPU在同一时间只能 ...
- Python核心技术与实战——十九|一起看看Python全局解释器锁GIL
我们在前面的几节课里讲了Python的并发编程的特性,也了解了多线程编程.事实上,Python的多线程有一个非常重要的话题——GIL(Global Interpreter Lock).我们今天就来讲一 ...
随机推荐
- EF(EntityFramework)与mysql使用,错误终极解决方案
我昨天写了好多篇跟mysql有关的错误,但是在今天我发现好像所有的问题都是一个原因引起的: 版本问题,我原先使用的是MySql.Data.Entity.EF6(版本号:6.10.5),今天我换成6.9 ...
- http协议、web服务器、并发服务器(下)
Web静态服务器-5-非堵塞模式 单进程非堵塞模型 import socket import time def main(): tcp_socket_server = socket.socket(so ...
- Java win7或 xp下配置JDK环境变量
JAVA win7或 xp下配置JDK环境变量 by:授客 QQ:1033553122 1.安装JDK,安装过程中可以自定义安装目录等信息,例如我们选择安装目录为D:\java\jdk1.5.0_08 ...
- MySQL事务(学习笔记)
MySQL事务主要用于处理操作量大,复杂度高的数据.比如说,在人员管理系统中,你删除一个人员,你即需要人员的基本资料,也要删除和该人员相关的信息,如信箱,文章等等,这样,这些数据库操作语句就构成一个事 ...
- Docker 系列五(Docker Compose 项目).
一.概念 Docker Compose 是官方编排项目之一,负责快速的部署分布式应用.它允许用户通过一个单独的 docker-compose.yml 模板文件(YAML格式)来定义一种相关联的应用容器 ...
- Python 内置函数笔记
其中有几个方法没怎么用过, 所以没整理到 Python内置函数 abs(a) 返回a的绝对值.该参数可以是整数或浮点数.如果参数是一个复数,则返回其大小 all(a) 如果元组.列表里面的所有元素都非 ...
- eclipse编写js代码没有提示
安装插件 点击Help,选择Eclipse Marketplace... 搜索js,安装AngularJS Eclipse 重启eclipse,右键项目,选择Configure(配置),选择Conve ...
- 自动化运维经验谈,以及为什么Docker是革命性的
互联网+的需要 在信息越来越繁杂的互联网时代,公司所运行的项目越来越多,项目相关服务繁多,服务之间存在复杂的依赖关系,运维与管理任务越来越繁重,手工交付需要花费很多的人力与时间,且安全性和时效性均无法 ...
- tpshop linux安装下注意事项
1. 安装目录不可读写---赋予权限 chmod -Rf 777 public 2.安装环境参考 https://lnmp.org/install.html 3.wget 若没有安装 yum 安装
- 前端入门7-JavaScript语法之相关术语
声明 本系列文章内容全部梳理自以下几个来源: <JavaScript权威指南> MDN web docs Github:smyhvae/web Github:goddyZhao/Trans ...