一、GIL全局解释器锁

1、什么是全局解释器锁

GIL本质就是一把互斥锁,相当于执行权限,每个进程内都会存在一把GIL,同一进程内的多个线程,必须抢到GIL之后才能使用Cpython解释器来执行自己的代码,即同一进程下的多个线程无法实现并行,但是可以实现并发。

  1. #1 所有数据都是共享的,这其中,代码作为一种数据也是被所有线程共享的(test.py的所有代码以及Cpython解释器的所有代码)
  2.  
  3. #2 所有线程的任务,都需要将任务的代码当做参数传给解释器的代码去执行,即所有的线程要想运行自己的任务,首先需要解决的是能够访问到解释器的代码。

例如下面多个线程的执行过程:

多个线程先访问到解释器的代码,即拿到执行权限,然后将target的代码交给解释器的代码去执行

解释器的代码是所有线程共享的,所以垃圾回收线程也可能访问到解释器的代码而去执行,这就导致了一个问题:对于同一个数据100,可能线程1执行x=100的同时,而垃圾回收执行的是回收100的操作,解决这种问题没有什么高明的方法,就是加锁处理,如下图的GIL,保证python解释器同一时间只能执行一个任务的代码

2、为什么要用GIL

因为CPython解释器的垃圾回收机制不是线程安全的

二、GIL与LOCK

锁的目的 :锁的目的是为了保护共享的数据,同一时间只能有一个线程来修改共享的数据

(1)GIL是保护解释器级别的锁,使利用CPython解释器时并发使用

(2)LOCK是自定义的锁,用来保证多线程/进程对同一个数据进行修改时的数据安全,使修改数据时串行

  1. 所有线程抢的是GIL锁,或者说所有线程抢的是执行权限
  2.  
  3.   线程1抢到GIL锁,拿到执行权限,开始执行,然后加了一把Lock,还没有执行完毕,即线程1还未释放Lock,有可能线程2抢到GIL锁,开始执行,执行过程中发现Lock还没有被线程1释放,于是线程2进入阻塞,被夺走执行权限,有可能线程1拿到GIL,然后正常执行到释放Lock。。。这就导致了串行运行的效果
  4.  
  5.   既然是串行,那我们执行
  6.  
  7.   t1.start()
  8.  
  9.   t1.join
  10.  
  11.   t2.start()
  12.  
  13.   t2.join()
  14.  
  15.   这也是串行执行啊,为何还要加Lock呢,需知join是等待t1所有的代码执行完,相当于锁住了t1的所有代码,而Lock只是锁住一部分操作共享数据的代码

分析

注意点 :

  1. #1.线程抢的是GIL锁,GIL锁相当于执行权限,拿到执行权限后才能拿到互斥锁Lock,其他线程也可以抢到GIL,但如果发现Lock仍然没有被释放则阻塞,
    即便是拿到执行权限GIL也要立刻交出来
  2.  
  3. #2.join是等待所有,即整体串行,而锁只是锁住修改共享数据的部分,即部分串行,要想保证数据安全的根本原理在于让并发变成串行,join与互斥锁都可以实现,
    毫无疑问,互斥锁的部分串行效率要更高

三、GIL与多线程

1、进程可以利用多核,但是开销大,而python的多线程开销小,但却无法利用多核优势

===>

  1. #1. cpu到底是用来做计算的
  2. #2. 多cpu,意味着可以有多个核并行完成计算,所以多核提升的是计算性能
  3. #3. 每个cpu一旦遇到I/O阻塞,仍然需要等待,所以多核对I/O操作没什么用处

因此,对计算来说,cpu越多越好,但是对于I/O来说,再多的cpu也没用。当然对运行一个程序来说,随着cpu的增多执行效率肯定会有所提高(不管提高幅度多大,总会有所提高),这是因为一个程序基本上不会是纯计算或者纯I/O,所以我们只能相对的去看一个程序到底是计算密集型还是I/O密集型,从而进一步分析python的多线程到底有无用武之地

  1. #分析:
  2. 我们有四个任务需要处理,处理方式肯定是要玩出并发的效果,解决方案可以是:
  3. 方案一:开启四个进程
  4. 方案二:一个进程下,开启四个线程
  5.  
  6. #单核情况下,分析结果:
  7.   如果四个任务是计算密集型,没有多核来并行计算,方案一徒增了创建进程的开销,方案二胜
  8.   如果四个任务是I/O密集型,方案一创建进程的开销大,且进程的切换速度远不如线程,方案二胜
  9.  
  10. #多核情况下,分析结果:
  11.   如果四个任务是计算密集型,多核意味着并行计算,在python中一个进程中同一时刻只有一个线程执行用不上多核,方案一胜
  12.   如果四个任务是I/O密集型,再多的核也解决不了I/O问题,方案二胜
  13.  
  14. #结论:
  15. 现在的计算机基本上都是多核,python对于计算密集型的任务开多线程的效率并不能带来多大性能上的提升,甚至不如串行(没有大量切换),但是,对于IO密集型的任务效率还是有显著提升的。
  16. ===>多核情况下,Python对于计算密集型,使用多进程的效率高
  17.         而对于I/O密集型,Python使用多线程的效率高一点

2、测试

  1. from multiprocessing import Process
  2. from threading import Thread
  3. import os,time
  4. def work():
  5. res=0
  6. for i in range(10000):
  7. res*=i
  8.  
  9. if __name__ == '__main__':
  10. l=[]
  11. print(os.cpu_count())
  12. start=time.time()
  13. for i in range(4):
  14. p=Process(target=work)
  15. #p=Thread(target=work)
  16. l.append(p)
  17. p.start()
  18. for p in l:
  19. p.join()
  20. stop=time.time()
  21. print('run time is %s' %(stop-start))

计算密集型,多进程效率高

  1. from multiprocessing import Process
  2. from threading import Thread
  3. import threading
  4. import os,time
  5. def work():
  6. time.sleep(2)
  7. print('===>')
  8.  
  9. if __name__ == '__main__':
  10. l=[]
  11. print(os.cpu_count())
  12. start=time.time()
  13. for i in range(400):
  14. # p=Process(target=work)
  15. p=Thread(target=work)
  16. l.append(p)
  17. p.start()
  18. for p in l:
  19. p.join()
  20. stop=time.time()
  21. print('run time is %s' %(stop-start))

I/O密集型,多线程效率高

应用场景:

  多线程用于IO密集型,如socket,爬虫,web
  多进程用于计算密集型,如金融分析

四、死锁现象与递归锁

1、死锁现象

两个或两个以上的进程或线程在执行过程中,因争夺资源而造成的一种互相等待的现象,若无外力作用,它们都将无法推进下去。

此时称系统处于死锁状态或系统产生了死锁(例如a持有B房间的钥匙,却被所在A房间,而b持有A房间的钥匙,却被锁在B房间,两人都被锁了),

这些永远在互相等待的进程称为死锁进程

  1. from threading import Thread,Lock,RLock
  2. import time
  3.  
  4. mutexA=Lock()
  5. mutexB=Lock()
  6.  
  7. class Mythead(Thread):
  8. def run(self):
  9. self.f1()
  10. self.f2()
  11.  
  12. def f1(self):
  13. mutexA.acquire()
  14. print('%s 抢到A锁' %self.name)
  15. mutexB.acquire()
  16. print('%s 抢到B锁' %self.name)
  17. mutexB.release()
  18. mutexA.release()
  19.  
  20. def f2(self):
  21. mutexB.acquire()
  22. print('%s 抢到了B锁' %self.name)
  23. time.sleep(2)
  24. mutexA.acquire()
  25. print('%s 抢到了A锁' %self.name)
  26. mutexA.release()
  27. mutexB.release()
  28.  
  29. if __name__ == '__main__':
  30. for i in range(100):
  31. t=Mythead()
  32. t.start()

死锁

2、死锁的解决方法——递归锁

在Python中为了支持在同一线程中多次请求同一资源,python提供了可重入锁RLock

这个RLock内部维护着一个Lock和一个counter变量,counter记录了acquire的次数,从而使得资源可以被多次require。直到一个线程所有的acquire都被release,其他的线程才能获得资源。上面的例子如果使用RLock代替Lock,则不会发生死锁:

  1. mutexA=mutexB=threading.RLock() #一个线程拿到锁,counter加1,该线程内又碰到加锁的情况,则counter继续加1,
    这期间所有其他线程都只能等待,等待该线程释放所有锁,即counter递减到0为止

五、信号量

Semaphore管理一个内置的计数器,
每当调用acquire()时内置计数器-1;
调用release() 时内置计数器+1;
计数器不能小于0;当计数器为0时,acquire()将阻塞线程直到其他线程调用release()。

===>一直有n个线程并发运行,但是这n个线程是变化的,不是最初的n个线程在运行

  1. from threading import Thread,Semaphore
  2. import time,random
  3. sm=Semaphore(5) #允许5个线程并发运行,但是5个线程可以不是原来那5个
  4.  
  5. def task(name):
  6. sm.acquire()
  7. print('%s 正在上厕所' %name)
  8. time.sleep(random.randint(1,3))
  9. sm.release()
  10.  
  11. if __name__ == '__main__':
  12. for i in range(20):
  13. t=Thread(target=task,args=('路人%s' %i,))
  14. t.start()

六、Event

  1. event.isSet():返回event的状态值;
  2.  
  3. event.wait():如果 event.isSet()==False将阻塞线程;
  4.  
  5. event.set(): 设置event的状态值为True,所有阻塞池的线程激活进入就绪状态, 等待操作系统调度;
  6.  
  7. event.clear():恢复event的状态值为False
  1. from threading import Thread,Event
  2. import time
  3.  
  4. event=Event()
  5.  
  6. def light():
  7. print('红灯正亮着')
  8. time.sleep(3)
  9. event.set() #绿灯亮
  10.  
  11. def car(name):
  12. print('车%s正在等绿灯' %name)
  13. event.wait() #等灯绿
  14. print('车%s通行' %name)
  15.  
  16. if __name__ == '__main__':
  17. # 红绿灯
  18. t1=Thread(target=light)
  19. t1.start()
  20. # 车
  21. for i in range(10):
  22. t=Thread(target=car,args=(i,))
  23. t.start()

车与红绿灯问题

七、进程队列(比较互斥锁,推荐使用队列)

1、queue队列 :使用import queue,用法与进程Queue一样

2、三种队列

(1). Queue:先进先出队列

  1. import queue
  2.  
  3. q=queue.Queue()
  4. q.put('first')
  5. q.put('second')
  6. q.put('third')
  7.  
  8. print(q.get())
  9. print(q.get())
  10. print(q.get())
  11.  
  12. '''
  13. 结果(先进先出):
  14. first
  15. second
  16. third
  17. '''

Queue队列

(2). LifoQueue:先进后出队列(相当于堆栈)

  1. import queue
  2.  
  3. q=queue.Queue()
  4. q.put('first')
  5. q.put('second')
  6. q.put('third')
  7.  
  8. print(q.get())
  9. print(q.get())
  10. print(q.get())
  11.  
  12. '''
  13. 结果(先进先出):
  14. third
  15. second
  16. first
  17. '''

先进后出队列

(3). ProirityQueue:优先级队列

put进入一个元组,元组的第一个元素是优先级(通常是数字,也可以是非数字之间的比较),数字越小优先级越高

  1. import queue
  2.  
  3. q=queue.PriorityQueue()
  4. #put进入一个元组,元组的第一个元素是优先级(通常是数字,也可以是非数字之间的比较),数字越小优先级越高
  5. q.put((20,'a'))
  6. q.put((10,'b'))
  7. q.put((30,'c'))
  8.  
  9. print(q.get())
  10. print(q.get())
  11. print(q.get())
  12.  
  13. '''
  14. 结果(数字越小优先级越高,优先级高的优先出队):
  15. (10, 'b')
  16. (20, 'a')
  17. (30, 'c')
  18. '''

优先级队列

并发编程(五)--GIL、死锁现象与递归锁、信号量、Event事件、线程queue的更多相关文章

  1. python并发编程-多线程实现服务端并发-GIL全局解释器锁-验证python多线程是否有用-死锁-递归锁-信号量-Event事件-线程结合队列-03

    目录 结合多线程实现服务端并发(不用socketserver模块) 服务端代码 客户端代码 CIL全局解释器锁****** 可能被问到的两个判断 与普通互斥锁的区别 验证python的多线程是否有用需 ...

  2. 8.14 day32 TCP服务端并发 GIL解释器锁 python多线程是否有用 死锁与递归锁 信号量event事件线程q

    TCP服务端支持并发 解决方式:开多线程 服务端 基础版 import socket """ 服务端 1.要有固定的IP和PORT 2.24小时不间断提供服务 3.能够支 ...

  3. 并发编程~~~多线程~~~守护线程, 互斥锁, 死锁现象与递归锁, 信号量 (Semaphore), GIL全局解释器锁

    一 守护线程 from threading import Thread import time def foo(): print(123) time.sleep(1) print('end123') ...

  4. (并发编程)RLock(与死锁现象),Semaphore,Even事件,线程Queue

    一.死锁现象与递归锁所谓死锁: 是指两个或两个以上的进程或线程在执行过程中,因争夺资源而造成的一种互相等待的现象,若无外力作用,它们都将无法推进下去.此时称系统处于死锁状态或系统产生了死锁,这些永远在 ...

  5. 并发编程---死锁||递归锁---信号量---Event事件---定时器

    死锁 互斥锁:Lock(),互斥锁只能acquire一次 递归锁:  RLock(),可以连续acquire多次,每acquire一次计数器+1,只有计数为0时,才能被抢到acquire # 死锁 f ...

  6. GIL全局解释器锁-死锁与递归锁-信号量-event事件

    一.全局解释器锁GIL: 官方的解释:掌握概念为主 """ In CPython, the global interpreter lock, or GIL, is a m ...

  7. GIL 信号量 event事件 线程queue

    GIL全局解释器锁 官方解释: In CPython, the global interpreter lock, or GIL, is a mutex that prevents multiple n ...

  8. 并发编程(五)——GIL全局解释器锁、死锁现象与递归锁、信号量、Event事件、线程queue

    GIL.死锁现象与递归锁.信号量.Event事件.线程queue 一.GIL全局解释器锁 1.什么是全局解释器锁 GIL本质就是一把互斥锁,相当于执行权限,每个进程内都会存在一把GIL,同一进程内的多 ...

  9. Python并发编程05 /死锁现象、递归锁、信号量、GIL锁、计算密集型/IO密集型效率验证、进程池/线程池

    Python并发编程05 /死锁现象.递归锁.信号量.GIL锁.计算密集型/IO密集型效率验证.进程池/线程池 目录 Python并发编程05 /死锁现象.递归锁.信号量.GIL锁.计算密集型/IO密 ...

随机推荐

  1. elasticsearch 简单demo RestHighLevelClient LowLeveClient

    参考: https://www.elastic.co/guide/en/elasticsearch/client/java-rest/6.7/java-rest-low.html www.elasti ...

  2. nginx配置文件结构及location块语法规则

    一. nginx配置文件结构介绍 二. location语法规则: 用法示例: location [=|~|~*|^~] /uri/ { … } # 讲解如下: 1.  = 开头表示精确匹配 2.  ...

  3. NOI2016优秀的拆分

    一种想法是枚举分割位置, 然后考虑前面部分有多少种可行的AA拆分方式, 后面部分有多少种可行的BB拆分方式, 然后乘法原理即可 那么问题是如何快速求出合法方案 解法是首先枚举长度len, 然后将序列分 ...

  4. [LeetCode] 70. Climbing Stairs 爬楼梯问题

    You are climbing a stair case. It takes n steps to reach to the top. Each time you can either climb ...

  5. Mac: phpstorm中使用xdebug调试php

    Mac: phpstorm中使用xdebug调试php###phpstorm和webserver都在同一台机器上这种情况1.安装xdebug使用pecl安装即可2.php.ini配置[xdebug]z ...

  6. logback&log4j异步日志配置

    logback 原始配置 配置 appender, 控制文件的滚动方式,日志的输出格式. <appender name="method-time-appender" clas ...

  7. javascript碰撞检测的方法

    javascript碰撞检测的方法需要把要检测碰撞的精灵都放到数组里array push 然后循环遍历数组里的精灵检测碰撞 ps:不放到数组里没办法循环遍历检测每个精灵核心代码如下 <pre&g ...

  8. SQL ------------ avg() 与 sum 函数

    AVG() 函数返回数字列的平均值 注意是数字的平均数, 语法: select avg(字段) from 表名 建个表,弄点数据 使用 select avg(字段) as 平均数 from 表名 与w ...

  9. SQL ------------ 对表中字段的操作 alter

    ALTER TABLE 语句用于在现有表中添加.删除或修改列. 注意不同的数据库的语句有所不一样 增加和删除都基本一致. 进行修改表中字段的时候注意: 本文主要介绍  sqlserver/mysql/ ...

  10. Java如何执行操作系统的CMD命令行

    在模拟cmd调用Python时遇到一些情况,这类问题可以归类为"超时,阻塞"等,问题原因: Process p=Runtime.getRuntime().exec(String[] ...