本文主要讲多线程的线程之间的资源共享怎么保持同步。

多线程基础篇见,Python threading实现多线程 基础篇

Python的多线程,只有用于I/O密集型程序时效率才会有明显的提高,如文件/输入输出/socket网络通信/http通讯等待。对于计算密集型程序一般采用多进程,这里不多讲。

一、多线程的同步问题

一般在多线程代码中,总会有一些特定的函数或代码块不想被多个线程同时执行,如:修改数据库、更新文件或其他会产生程序冲突的类似情况。

如果两个线程的运行顺序不同,他有可能产生不同的结果,或者造成执行的轨迹或行为不相同,这时我们就需要使用到多线程的同步。

当任意数量的线程可以访问临界区的代码,当在同一时刻只能有一个线程可以通过时,就需要使用同步。我们可以选择合适的同步原语,也可以让线程控制机制来执行同步。同步有不同的类型,python也支持多种同步类型,你可以选择最合适的来运行程序。

最常用的同理原语有:锁/互斥,以及信号量。锁是最简单最低级的机制。信号量用于多线程竞争有限资源的情况。

二、Lock 同步锁(原语锁)

2.1 同步锁的使用

我们一般使用获得锁(加锁)和释放锁(解锁)函数来控制锁的两种状态“锁定”和“未锁定”。一般只要在公共操作前加上加锁和解锁的操作即可。

示例:加锁 与 解锁

import threading

# 创建一个锁对象
lock = threading.Lock()
# 获得锁,加锁
lock.acquire() .... # 释放锁,解锁
lock.release()

当我们通过 lock.acquire() 获得锁后线程程将一直执行不会中断,直到该线程 lock.release( )释放锁后线程才有可能被释放(注意:锁被释放后线程不一定会释放)。

示例:锁的运用

import time
import threading # 生成一个锁对象
lock = threading.Lock() def func():
global num # 全局变量
# lock.acquire() # 获得锁,加锁
num1 = num
time.sleep(0.1)
num = num1 - 1
# lock.release() # 释放锁,解锁
time.sleep(2) num = 100
l = [] for i in range(100): # 开启100个线程
t = threading.Thread(target=func, args=())
t.start()
l.append(t) # 等待线程运行结束
for i in l:
i.join() print(num)

注意:上面代码先将lock.acquire()和lock.release()行注释掉表示不使用锁,取消lock.acquire()和lock.release()行的注释表示使用锁。

运行结果:

不使用锁程序运行输出为 99;
使用锁程序运行结果为0

为什么会有差异?这就是有锁和无锁的差别。



注意,第10行,这里增加了一个sleep()操作,当在没有锁的情况下线程将在这里被释放出来,让给下一线程运行,而我们的num值还没有被修改,所以后面线程的num1的取值都是100。

Lock 与GIL(全局解释器锁)存在区别。

我们需要知道 Lock 锁的目的,它是为了保护共享的数据,同时刻只能有一个线程来修改共享的数据,而保护不同的数据需要使用不同的锁。

GIL用于限制一个进程中同一时刻只有一个线程被CPU调度,GIL的级别比Lock高,GIL是解释器级别。

GIL与Lock同时存在,程序执行如下:

  1. 同时存在两个线程:线程A,线程B
  2. 线程A 抢占到GIL,进入CPU执行,并加了Lock,但为执行完毕,线程被释放
  3. 线程B 抢占到GIL,进入CPU执行,执行时发现数据被线程A Lock,于是线程B被阻塞
  4. 线程B的GIL被夺走,有可能线程A拿到GIL,执行完操作、解锁,并释放GIL
  5. 线程B再次拿到GIL,才可以正常执行

    通过上述应该能看到,Lock 通过牺牲执行的效率换数据安全。

2.2 死锁

多线程最怕的是遇到死锁,两个或两个以上的线程在执行时,因争夺资源被相互锁住而相互等待。

示例:互锁造成死锁

import threading

# 生成一个锁对象
lock1 = threading.Lock()
lock2 = threading.Lock() class MyThread(threading.Thread):
def __init__(self):
threading.Thread.__init__(self) def run(self) -> None:
self.fun_A()
self.fun_B() def fun_A(self):
lock1.acquire()
print('A_1 加锁', end='\t')
lock2.acquire()
print('A-2 加锁', end='\t')
time.sleep(0.1)
lock2.release()
print('A-2 释放', end='\t')
lock1.release()
print('A-1 释放') def fun_B(self):
lock2.acquire()
print('B-1 加锁', end='\t')
lock1.acquire()
print('B-2 加锁', end='\t')
time.sleep(0.1)
lock1.release()
print('B-1 释放', end='\t')
lock2.release()
print('B-2 释放') if __name__ == '__main__':
# 需要四个以上线程,才会出现死锁现象
t1 = MyThread()
t2 = MyThread()
t1.start()
t2.start()

如上,如果两个锁同时被多个线程运行,就有可能出现死锁,如果没出现死锁,就多运行几遍就会出现死锁现象。上面程序死锁为偶现性,这种bug也是最难找的。

2.3 重入锁(递归锁) threading.RLock()

为了支持同一个线程中多次请求同一资源,Python 提供了可重入锁(RLock)。这个RLock内部维护着一个锁(Lock)和一个计数器(counter)变量,counter 记录了acquire 的次数,从而使得资源可以被多次acquire。直到一个线程所有 acquire都被release(计数器counter变为0),其他的线程才能获得资源。

示例:

import time
import threading # 生成一个递归对象
Rlock = threading.RLock() class MyThread(threading.Thread):
def __init__(self):
threading.Thread.__init__(self) def run(self) -> None:
self.fun_A()
self.fun_B() def fun_A(self):
Rlock.acquire()
print('A加锁1', end='\t')
Rlock.acquire()
print('A加锁2', end='\t')
time.sleep(0.2)
Rlock.release()
print('A释放1', end='\t')
Rlock.release()
print('A释放2') def fun_B(self):
Rlock.acquire()
print('B加锁1', end='\t')
Rlock.acquire()
print('B加锁2', end='\t')
time.sleep(3)
Rlock.release()
print('B释放1', end='\t')
Rlock.release()
print('B释放2') if __name__ == '__main__':
t1 = MyThread()
t2 = MyThread()
t1.start()
t2.start()

注意观察程序的运行,当运行到程序B时,即使B休眠了3秒也不会切换线程。

使用重入锁时,counter 没有变为0(所有的acquire没有被释放掉),即使遇到长时间的io操作也不会切换线程。

三、信号量(Semaphore)

信号量是一个内部数据,它有一个内置的计数器,它标明当前的共享资源可以有多少线程同时读取。

示例:定义一个只能同时执行5个线程的信号量。

semaphore = threading.Semaphore(5)  # 创建信号量对象,5个线程并发

当线程需要读取关联信号量的共享资源时,需调用acquire(),这时信号量的计数器会-1。

semaphore.acquire() # 获取共享资源,信号量计数器-1

在线程不需要共享资源时,需释放信号release(),这时信号量的计数器会+1,在信号量等待队列中排在最前面的线程会拿到共享资源的权限。。

semaphore.release()  # 释放共享资源,信号量计数器+1

信号量控制规则:当计数器大于0时,那么可以为线程分配资源权限;当计数器小于0时,未获得权限的线程会被挂起,直到其他线程释放资源。

示例1: 信号量运行3个线程并行

import time
import threading
import random # 创建信号量对象,信号量设置为3,需要有3个线程才启动
semaphore = threading.Semaphore(3) def func(): if semaphore.acquire(): # 获取信号 -1
print(threading.currentThread().getName() + '获得信号量')
time.sleep(random.randint(1, 5))
semaphore.release() # 释放信号 +1 for i in range(10):
t1 = threading.Thread(target=func)
t1.start()

注意观察程序运行,开始只有3个线程获得了资源的权限,后面当释放几个资源时就有几个获得资源权限。

示例2:运用信号量进行线程同步

import threading
import time
import random # 同步两个不同线程,信号量被初始化0
semaphore = threading.Semaphore(0) def consumer():
print("-----等待producer运行------")
semaphore.acquire() # 获取资源,信号量为0被挂起,等待信号量释放
print("----consumer 结束----- 编号: %s" % item ) def producer():
global item # 全局变量
time.sleep(3)
item = random.randint(0, 100) # 随机编号
print("producer运行编号: %s" % item)
semaphore.release() if __name__ == "__main__":
for i in range(0, 4):
t1 = threading.Thread(target=producer)
t2 = threading.Thread(target=consumer)
t1.start()
t2.start()
t1.join()
t2.join()
print("程序终止")

信号量被初始化为0,目的是同步两个或多个线程。线程必须并行运行,所以需要信号量同步。这种运用场景有时会用到,比较难理解,多运行示例仔细观察打印结果。

拓展:

信号量的一个特殊用法是互斥量。互斥量是初始值为1的信号量,可以实现数据、资源的互斥访问。

信号量在在多线程的编程语言中应用很广,他也有可能造成死锁的情况。例如,有一个线程t1,先等待信号量s1,然后等待信号量s2,而线程t2会先等待信号量s2,然后再等待信号量s1,这样就会发生死锁,导致t1等待s2,但是t2在等待s1。

四、Condition 条件变量

Condition 条件变量通常与一个锁相关联。需要在多个Condition 条件中共享一个锁时,可以传递一个Lock/RLock实例给构造方法,否则他将自己产生一个RLock实例。

定义条件变量锁实例

condition = threading.Condition()

比较难理解,先看看Condition()下的方法。

  • acquire() 获得锁(线程锁)
  • release() 释放锁
  • wait(timeout) 挂起线程timeout秒(为None时时间无限),直到收到notify通知或者超时才会被唤醒继续运行。必须在获得Lock下运行。
  • notify(n=1) 通知挂起的线程开始运行,默认通知正在等待该condition的线程,可同时唤醒n个。必须在获得Lock下运行。
  • notifyAll() 通知所有被挂起的线程开始运行。必须在获得Lock下运行。

    示例1:生产与消费,线程produce生产产品当产品生产成功后通知线程B使用产品,线程consume使用完产品后通知线程produce继续生产产品。
import threading
import time # 商品
product = None
# 条件变量对象
con = threading.Condition() # 生产方法
def produce():
global product # 全局变量产品
if con.acquire():
while True:
print('---执行,produce--')
if product is None:
product = '袜子'
print('---生产产品:%s---' % product)
# 通知消费者,商品已经生产
con.notify() # 唤醒消费线程
# 等待通知
con.wait()
time.sleep(2) # 消费方法
def consume():
global product
if con.acquire():
while True:
print('***执行,consume***')
if product is not None:
print('***卖出产品:%s***' % product)
product = None
# 通知生产者,商品已经没了
con.notify()
# 等待通知
con.wait()
time.sleep(2) if __name__=='__main__':
t1 = threading.Thread(target=consume)
t1.start()
t2 = threading.Thread(target=produce)
t2.start()

示例2:生产商品数量达到一定条件后被消费

import threading
import time num = 0
condition = threading.Condition() class Producer(threading.Thread):
""" 生产者 ,生产商品,5个后等待消费""" def run(self):
global num
# 获取锁
condition.acquire()
while True:
num += 1
print('生产了1个,现在有{0}个'.format(num))
time.sleep(1)
if num >= 5:
print('已达到5个,停止生产')
# 唤醒消费者费线程
condition.notify()
# 等待-释放锁 或者 被唤醒-获取锁
condition.wait() class Customer(threading.Thread):
""" 消费者 抢购商品,每人初始10元,商品单价1元""" def __init__(self, *args, **kwargs):
super().__init__(*args, **kwargs)
# 每人初始10块钱
self.money = 10 def run(self):
global num
while self.money > 0:
condition.acquire()
if num <= 0:
print('没货了,{0}通知生产者'.format(threading.current_thread().name))
condition.notify()
condition.wait()
self.money -= 1
num -= 1
print('{0}消费了1个, 剩余{1}个'.format(threading.current_thread().name, num))
condition.release()
time.sleep(1)
print('{0}没钱了-停止消费'.format(threading.current_thread().name)) if __name__ == '__main__':
p = Producer(daemon=True)
c1 = Customer(name='Customer-1')
c2 = Customer(name='Customer-2')
p.start()
c1.start()
c2.start()

两个示例差不多,只是实现方式不同,注意观察输出,理解程序运行规则。

release() 和 wait() 都有释放锁的作用,不同在于wait() 后,该子线程就在那里挂起等待,要继续执行,就需要接收到 notify() 或者 notifyAll() 来唤醒线程,而 release() 该线程还能继续执行。

五、Event 事件锁对象

用于线程间通信,即程序中的其一个线程需要通过判断某个线程的状态来确定自己下一步的操作,就用到了event()对象。event()对象有个状态值,他的默认值为 Flase,即遇到 event() 对象就阻塞线程的执行。

定义Event 事件锁实例

event = threading.Event()

Event对象的方法

  • wait(timeout=None) 挂起线程timeout秒(None时间无限),直到超时或收到event()信号开关为True时才唤醒程序。
  • set() Even状态值设为True
  • clear() Even状态值设为 False
  • isSet() 返回Even对象的状态值。

    示例: func等待connect启动服务
import threading

event = threading.Event()

def func():
print('等待服务响应...')
event.wait() # 等待事件发生
print('连接到服务') def connect():
print('成功启动服务')
event.set() t1 = threading.Thread(target=func, args=())
t2 = threading.Thread(target=connect, args=()) t1.start()
t2.start()

输出结果:

等待服务响应...
成功启动服务
连接到服务器

观察结果会发现,t1线程运行的func函数需要等到connect函数运行event.set()后才继续执行之后的操作。

六、Barrie 障碍锁

也可以叫屏障或者栅栏,可以想象成路障、道闸。当线程达到设定的数值时放开道闸允许继续运行。

创建Barrier障碍锁

barrier=threading.Barrier(parties, action=None, timeout=None)

参数:

  • parties 参与线程的数量
  • action 全部线程被释放时可被其中一条线程调用的可调用对象
  • timeout 调用wait方法时未指定时超时的默认值

Barrier实例的方法

  • wait(timeout=None) 等待通过栅栏,返回值是一个0到parties-1之间的整数, 每个线程返回不同。如果wait方法设置了超时,并超时发送,栅栏将处于broken状态。
  • reset() 重置障碍,返回默认的 False 状态,即重新开始阻塞线程。
  • abort() 将障碍置为断开状态,这将导致已调用wait()和之后调用wait()引发BrokenBarrierError异常。

Barrier实例的属性

  • partier 通过障碍的线程数
  • n_waiting 当前在屏障中等待的线程数
  • broken 布尔值,表明barrier是否broken。

示例1:

import threading

def work(barrier):
print("n_waiting = {}".format(barrier.n_waiting)) # 等待的线程数
bid = barrier.wait() # 参与者的id,返回0到线程数减1的数值
print("障碍后运行 {}".format(bid)) # 障碍之后 barrier = threading.Barrier(3) # 3个参与者,每3个开闸放行 for x in range(6): # 这里启动线程只能是3的倍数,你可以试5
threading.Thread(target=work, args=(barrier,)).start()

注意:当我们设置Barrier的放行的线程数时,我们启动的线程只能是他的倍数,不然会有线程一直陷入等待中。

怎么解决这个问题,我们需要在wait加入timeout参数,如下示例。

示例2: 解决线程不是Barrier的倍数问题

import threading

def work(barrier):
bid = None
print("n_waiting = {}".format(barrier.n_waiting)) # 等待的线程数
try:
# 设置超时时间,线程达不到数量会抛出异常
bid = barrier.wait(1) # 设置线程超时时间
print("障碍后运行 {}".format(bid)) # 障碍之后
except threading.BrokenBarrierError: # 接收超时的异常
barrier.abort() # 取消屏障
print("打破障碍运行 {}".format(threading.current_thread())) barrier = threading.Barrier(3) # 3个参与者,每3个开闸放行
for x in range(5): # 5个线程,剩余2个会抛出超时异常
threading.Event().wait(0.1)
threading.Thread(target=work, args=(barrier,)).start()

七、threading 使用 Queue 保持线程同步

Queue 模块可以实现多生产者与多消费者队列,它可以实现多个线程之间的信息安全交换。

它有几种队列模式:

FIFO队列,先进先出

q = queue.Queue(10)  # FIFO 队列,最多放入10个项目
q.put(123) # 队列中存入项目123

LIFO队列,后进先出,如同栈

q = queue.LifoQueue()   # LIFO 队列,项目数无限
q.put(123) # 队列中存入项目123

Priority队列,对着中的数据始终保持排序,优先检索最低值。 通常使用 (优先序号, 数据)形式存储数据。不带需要默认对其值进行排序。

注意:Priority队列因为是顺序的,存储的数据必须是要能排序,即相同类型数据

q = queue.PriorityQueue(10) # Priority 队列,最多放入10个项目
q.put((1,'a')) # 队列中存入项目(1,'a')

注意: 创建队列时会指定队列中最多存储项目的个数,就是设定一个非常大的值也比无限制好。

队列的公共方法:

qsize() 队列大致大小,非准确值
empty() 当前是否为空
full() 当前是否已满
put(item, block=True, timeout=None) 将item放入队列。
block=True, timeout=None 在必要时阻塞,直到有空位可用,timeout 为阻止的时间,超时抛出Full异常。
block=False 立即将item放入队列,队列已满引发Full异常。
put_nowait(item) 立即放入队列,同put(item,False)
get(block=True, timeout=None) 从队列中删除并返回一个item。
block=True, timeout=None 在必要时阻塞,直到有可用数据为止,timeout 为阻止的时间,超时抛出Empty异常。
block=False 立即获取队列中的可用数据,否则抛出Empty异常。
get_nowait() 立即获取队列中的数据,同get(False)。
task_done() 向已完成的队列任务发送一个信号。一般是告诉join() 我以完成任务。
join() 阻塞线程,直到队列为空才放行。

注意:join() 与 task_done() 是套组合拳,有使用 join() 必须在任务结束后执行 task_done() 通知队列。

示例:生产 消费模式

import threading, time
import queue # 最多存入10个
q = queue.PriorityQueue(10) def producer(name):
''' 生产者 '''
count = 1
while True:
#  生产袜子
q.put("袜子 %s" % count) # 将生产的袜子方法队列
print(name, "---生产了袜子", count)
count += 1
time.sleep(0.2) def consumer(name):
''' 消费者 '''
while True:
print("%s ***卖掉了[%s]" % (name, q.get())) # 消费生产的袜子
time.sleep(1)
q.task_done() # 告知这个任务执行完了 # 生产线程
z = threading.Thread(target=producer, args=("张三",))
# 消费线程
l = threading.Thread(target=consumer, args=("李四",))
w = threading.Thread(target=consumer, args=("王五",)) # 执行线程
z.start()
l.start()
w.start()

来源:https://zhuanlan.zhihu.com/p/94344847

Python threading实现多线程 提高篇 线程同步,以及各种锁的更多相关文章

  1. .NET面试题解析(07)-多线程编程与线程同步

      系列文章目录地址: .NET面试题解析(00)-开篇来谈谈面试 & 系列文章索引 关于线程的知识点其实是很多的,比如多线程编程.线程上下文.异步编程.线程同步构造.GUI的跨线程访问等等, ...

  2. .NET面试题解析(07)-多线程编程与线程同步 (转)

    http://www.cnblogs.com/anding/p/5301754.html 系列文章目录地址: .NET面试题解析(00)-开篇来谈谈面试 & 系列文章索引 关于线程的知识点其实 ...

  3. Python中的多线程编程,线程安全与锁(二)

    在我的上篇博文Python中的多线程编程,线程安全与锁(一)中,我们熟悉了多线程编程与线程安全相关重要概念, Threading.Lock实现互斥锁的简单示例,两种死锁(迭代死锁和互相等待死锁)情况及 ...

  4. [ 高并发]Java高并发编程系列第二篇--线程同步

    高并发,听起来高大上的一个词汇,在身处于互联网潮的社会大趋势下,高并发赋予了更多的传奇色彩.首先,我们可以看到很多招聘中,会提到有高并发项目者优先.高并发,意味着,你的前雇主,有很大的业务层面的需求, ...

  5. java核心知识点学习----多线程并发之线程同步

    1.什么是线程同步? 多线程编程是很有趣的事情,它很容易出现"错误情况",这种情况不是由编码造成的,它是由系统的线程调度造成的,当使用多个线程来访问同一个数据时,很容易出现&quo ...

  6. 线程同步 - POSIX互斥锁

    线程同步 - POSIX互斥锁 概括 本文讲解POSIX中互斥量的基本用法,从而能达到简单的线程同步.互斥量是一种特殊的变量,它有两种状态:锁定以及解锁.如果互斥量是锁定的,就有一个特定的线程持有或者 ...

  7. Python之路(第四十四篇)线程同步锁、死锁、递归锁、信号量

    在使用多线程的应用下,如何保证线程安全,以及线程之间的同步,或者访问共享变量等问题是十分棘手的问题,也是使用多线程下面临的问题,如果处理不好,会带来较严重的后果,使用python多线程中提供Lock ...

  8. Python 学习入门(22)—— 线程同步

    Python主要通过标准库中的threading包来实现多线程.在当今网络时代,每个服务器都会接收到大量的请求.服务器可以利用多线程的方式来处理这些请求,以提高对网络端口的读写效率.Python是一种 ...

  9. 2016/1/2 Python中的多线程(1):线程初探

    ---恢复内容开始--- 新年第一篇,继续Python. 先来简单介绍线程和进程. 计算机刚开始发展的时候,程序都是从头到尾独占式地使用所有的内存和硬件资源,每个计算机只能同时跑一个程序.后来引进了一 ...

  10. Python中的多线程编程,线程安全与锁(一)

    1. 多线程编程与线程安全相关重要概念 在我的上篇博文 聊聊Python中的GIL 中,我们熟悉了几个特别重要的概念:GIL,线程,进程, 线程安全,原子操作. 以下是简单回顾,详细介绍请直接看聊聊P ...

随机推荐

  1. Vue——Ajax请求的基本使用

    1.get方法发送Ajax请求 // 直接在 URL 上添加参数 ID=12345 axios.get('/user?ID=12345') .then(function (response) { co ...

  2. beego go mod 模式下无法生成注解路由的问题 解决方法

    执行 go get github.com/beego/bee 命令时将bee 命令一定要安装在gopath目录下.有idea或者goland编辑器是最方便的,只需要复制这条命令,然后进入编辑器会提示你 ...

  3. Hugging Face x LangChain: 全新 LangChain 合作伙伴包

    我们很高兴官宣发布 langchain_huggingface ,这是一个由 Hugging Face 和 LangChain 共同维护的 LangChain 合作伙伴包.这个新的 Python 包旨 ...

  4. mysql笔记第一天: 介绍和MySQL编译安装

    一.DBA的工作内容: ![](371eaced-e10b-46d9-89e2-f63f15503bb6_files/9edcd22a-ef2d-4c3e-8474-3049255610db.jpg) ...

  5. 7.28考试总结(NOIP模拟26)[神炎皇·降雷皇·幻魔皇]

    或许只需一滴露水,便能守护这绽放的花朵. 前言 疯狂挂分,本来T2是想用树状数组优化一下的不知道为啥后来看了一下就少看了一层循环, 然后就想,我都 n 的复杂度了,足以搞过第一问了,还优化啥呀.... ...

  6. ko编译常见问题

    记录ko编译过程中遇到的常见问题: (1)找不到标准库头文件 解决方式:将lib库中的头文件链接到编译内核中.

  7. java中以字符分隔的字符串与字符串数组的相互转换

    1.字符串数组拼接成一个以指定字符(包括空字符)分隔的字符串--String.join(),JDK8的新特性 String[] strArray = {"aaa","bb ...

  8. TiDB 多集群告警监控-初章-监控融合、自动告警处理

    author:longzhuquan 背景 随着公司XC改造步伐的前进,越来越多的业务选择 TiDB,由于各个业务之间需要物理隔离,避免不了的 TiDB 集群数量越来越多.虽然每套 TiDB 集群均有 ...

  9. nfs笔记整理

    NFS---共享存储系统 #network file system 网络文件系统 ​ #NFS主要使用在局域网下,让不同的主机之间可以共享文件.或者目录数据.主要用于linux系统上实现文件共享的一种 ...

  10. Java设计模式-责任链模式,应用接口多个参数验证,订单多个费用的计算

    Java设计模式-责任链模式,应用接口多个参数验证,订单多个费用的计算 1.定义请求和返回对象的上下文对象 package com.example.core.mydemo.java.filter; i ...