【眼见为实】自己动手实践理解数据库READ UNCOMMITED && SERIALIZABLE
我们自己通过Sql语句模拟场景来验证Mysql InnoDB引擎事务各级隔离级别对应封锁协议的工作机制。在开始实践之前我们需要做一些准备工作。
准备工作
①准备测试表和测试数据
需要建立一个测试数据表,建表语句:
create table users
(
id int auto_increment not null primary key,
name char(10) not null,
state int not null
);
然后插入一条测试数据:
insert into users values(1,'swj',0);
②关闭数据库事务自动提交
# 0为关闭 1为开启
SET autocommit = 0;
设置完成后我们可以通过下列语句查看是否关闭了自动提交。
show variables like 'autocommit';
OFF关闭无误。
③设置InnoDB存储引擎隔离级别
首先我们可以使用下面的语句分别查看数据库的系统级隔离级别和会话级隔离级别。
select @@global.tx_isolation,@@tx_isolation;
这也说明了MySql数据库默认使用的隔离级别是可重复读(REPEATABLE-READ)。
我们可以使用下面的语句设置隔离级别。隔离级别有READ UNCOMMITTED | **READ COMMITTED **| REPEATABLE READ | SERIALIZABLE四种。
SET [SESSION | GLOBAL] TRANSACTION ISOLATION LEVEL {READ UNCOMMITTED | READ COMMITTED | REPEATABLE READ | SERIALIZABLE}
[READ UNCOMMITTED]
首先设置数据库隔离级别为读未提交(READ UNCOMMITTED):
set global transaction isolation level READ UNCOMMITTED ;
set session transaction isolation level READ UNCOMMITTED ;
[READ UNCOMMITTED]能解决的问题
我们来看一下为什么[READ UNCOMMITTED]能解决丢失更新的问题:
事务1:
START TRANSACTION;
① UPDATE users SET state=state+1 WHERE id=1;
② SELECT sleep(10);
COMMIT;
事务2:
START TRANSACTION;
① UPDATE users SET state=state+1 WHERE id=1;
COMMIT;
事务1先于事务2执行。
事务1的执行信息:
[SQL 1]START TRANSACTION;
受影响的行: 0
时间: 0.000s
[SQL 2]
UPDATE users SET state=state+1 WHERE id=1;
受影响的行: 1
时间: 0.001s
[SQL 3]
SELECT sleep(10);
受影响的行: 0
时间: 10.000s
[SQL 4]
COMMIT;
受影响的行: 0
时间: 0.068s
事务2的执行信息:
[SQL 1]START TRANSACTION;
受影响的行: 0
时间: 0.000s
[SQL 2]
UPDATE users SET state=state+1 WHERE id=1;
受影响的行: 1
时间: 8.787s
[SQL 3]
COMMIT;
受影响的行: 0
时间: 0.098s
执行结果:
结论:读未提交[READ UNCOMMITTED]隔离级别可以解决丢失更新的问题。
分析:因为读未提交[READ UNCOMMITTED]隔离级别对应数据库的一级封锁协议。一级封锁协议在修改数据之前对其加X锁,直到事务结束释放X锁。读数据不加锁。因为事务1先执行修改,修改前申请持有X锁,事务结束释放X锁。持锁时间段为[SQL 2]开始前到[SQL 4]结束,持锁时间大约为10.069s。事务2也执行修改操作,修改前也申请持有X锁。因为事务1执行更新操作等待10秒才会提交释放锁,所以事务2申请持锁需要等待,直到事务1结束才能获取到锁的持有权进行修改。事务2的执行信息中的[SQL 2]时间为8.787s(因为手速原因存在误差,实际应该为10秒左右)就能说明这一点。这样对同一数据的修改会变成串行化的修改,所以不会出现因为并发只进行一次+1的情况,也就不会出现丢失修改的问题。
[READ UNCOMMITTED]不能解决的问题
读未提交,顾名思义,一个事务可以读到另一个事务没有提交的内容,如果另一个事务进行回滚就会产生脏读。
我们来模拟一下脏读:
事务1:
START TRANSACTION;
① UPDATE users SET state=1 WHERE id=1;
② SELECT sleep(5);
ROLLBACK;
事务2:
START TRANSACTION;
① SELECT * FROM users WHERE id=1;
COMMIT;
事务1先于事务2执行。
事务1的执行信息:
[SQL 1]START TRANSACTION;
受影响的行: 0
时间: 0.000s
[SQL 2]
UPDATE users SET state=1 WHERE id=1;
受影响的行: 1
时间: 0.002s
[SQL 3]
SELECT sleep(5);
受影响的行: 0
时间: 5.000s
[SQL 4]
ROLLBACK;
受影响的行: 0
时间: 0.067s
事务2的执行信息:
[SQL 1]START TRANSACTION;
受影响的行: 0
时间: 0.001s
[SQL 2]
SELECT * FROM users WHERE id=1;
受影响的行: 0
时间: 0.001s
[SQL 3]
COMMIT;
受影响的行: 0
时间: 0.000s
事务2的执行结果:
事务1和事务2都执行结束时,再进行一次查询的结果:
结论:读未提交[READ UNCOMMITTED]隔离级别解决不了脏读的问题,更解决不了不可重复读的问题。
分析:因为读未提交[READ UNCOMMITTED]隔离级别对应数据库的一级封锁协议。一级封锁协议在修改数据之前对其加X锁,直到事务结束释放X锁。读数据不加锁。因为事务1先执行修改,修改前申请持有X锁,持锁时间段为[SQL 2]开始前到[SQL 4]结束,持锁时间大约为5.069s。事务2执行读操作,不需要申请持锁,而是直接去磁盘读取数据。读取出的数据是事务1修改后的,而此时事务1回滚,修改的数据被还原,就产生了脏读现象。
[SERIALIZABLE]
这个级别的封锁就很好理解了,读加共享锁,写加排他锁,读写互斥。使用的悲观锁的理论,所有操作串行化执行,数据更加安全,但是并发能力非常差。如果你的业务并发的特别少或者没有并发,同时又要求数据及时可靠的话,可以使用这种模式。
我们重点探究的不是[READ UNCOMMITTED]和[SERIALIZABLE]级别,而是[READ COMMITTED]和[REPEATABLE READ]。如果您对此感兴趣可以看一下后两篇博客。
本文为博主学习感悟总结,水平有限,如果不当,欢迎指正。
如果您认为还不错,不妨点击一下下方的[【推荐】](javascript:void(0)
【眼见为实】自己动手实践理解数据库READ UNCOMMITED && SERIALIZABLE的更多相关文章
- 【眼见为实】自己动手实践理解数据库REPEATABLE READ && Next-Key Lock
[REPEATABLE READ] 首先设置数据库隔离级别为可重复读(REPEATABLE READ): set global transaction isolation level REPEATAB ...
- 【眼见为实】自己动手实践理解数据库READ COMMITTED && MVCC
[READ COMMITTED] 首先设置数据库隔离级别为读已提交(READ COMMITTED): set global transaction isolation level READ COMMI ...
- 【眼见为实】自己动手实践理解REPEATABLE READ && Next-Key Lock
首先设置数据库隔离级别为可重复读(REPEATABLE READ): set global transaction isolation level REPEATABLE READ ; set sess ...
- 【眼见为实】自己动手实践理解READ COMMITTED && MVCC
[眼见为实]自己动手实践理解 READ COMMITTED && MVCC 首先设置数据库隔离级别为读已提交(READ COMMITTED): set global transacti ...
- [转帖]Docker从入门到动手实践
Docker从入门到动手实践 https://www.cnblogs.com/nsky/p/10853194.html dockerfile的图很好呢. 但是自己没有做实验 , 其实知识都挺好. do ...
- 【原创 Hadoop&Spark 动手实践 8】Spark 应用经验、调优与动手实践
[原创 Hadoop&Spark 动手实践 7]Spark 应用经验.调优与动手实践 目标: 1. 了解Spark 应用经验与调优的理论与方法,如果遇到Spark调优的事情,有理论思考框架. ...
- 【原创 Hadoop&Spark 动手实践 9】Spark SQL 程序设计基础与动手实践(上)
[原创 Hadoop&Spark 动手实践 9]SparkSQL程序设计基础与动手实践(上) 目标: 1. 理解Spark SQL最基础的原理 2. 可以使用Spark SQL完成一些简单的数 ...
- 【原创 Hadoop&Spark 动手实践 10】Spark SQL 程序设计基础与动手实践(下)
[原创 Hadoop&Spark 动手实践 10]Spark SQL 程序设计基础与动手实践(下) 目标: 1. 深入理解Spark SQL 程序设计的原理 2. 通过简单的命令来验证Spar ...
- 【原创 Hadoop&Spark 动手实践 6】Spark 编程实例与案例演示
[原创 Hadoop&Spark 动手实践 6]Spark 编程实例与案例演示 Spark 编程实例和简易电影分析系统的编写 目标: 1. 掌握理论:了解Spark编程的理论基础 2. 搭建 ...
随机推荐
- 二、源代码=>程序集及程序集概念介绍
文本脉络图如下: 一.源代码-面向CLR的编译器-托管模块-(元数据&IL代码)中介绍了编译器将源文件编译成托管模块(中间语言和元数据),本文主要介绍如何将托管模块合并成程序集. 1.程序集的 ...
- Postman—构建工作流
前言 在使用“Collection Runner”的时候,集合中的请求执行顺序就是请求在Collection中的显示排列顺序.但是,有的时候我们不希望请求按照这样的方式去执行,可能是执行完第一个请求, ...
- fine ui使用笔记
1.top.X.alert("保存成功"); 2.Alert.GetShowInTopReference("这是在服务器端生成的客户端事件"); 注明:1与2等 ...
- asp.net页面传值方法汇总
1. Get(即使用QueryString显式传递) 方式:在url后面跟参数. 特点:简单.方便. 缺点:字符串长度最长为255个字符:数据泄漏在url中. 适用数据 ...
- vue-cli3.0配置接口代理
根目录 新建 vue.config.js 文件,自动加载配置. // 作为配置文件,直接导出配置对象即可 module.exports = { devServer: { // 设置主机地址 hos ...
- NLP 装桶(Bucketing)和填充(padding)
翻译模型也是用了装桶(bucketing)和填充(padding),这两种方法是用于高效地处理不同长度句子的情况.我们首先来弄清楚是怎么一回事.当我们从英语翻译成法语的时候,假设我们的输入英语的长度为 ...
- redis-java中的callback回掉机制
springboot整合redis后, 会提供StringRedisTEmplate和 RedisTemplate 两个模板类供食用, 有时候这并不能满足我们的需求, 需要使用 connect 处理, ...
- Linux系统资源管理 之 硬件信息
1. CPU lscpu : 一般不加参数,直接使用该命令. cat /proc/cpuinfo: 该文件中列出了CPU的详细信息,类似于'lscpu'命令 lscpu [niesh @niesh D ...
- 重置Root用户密码
在忘记root用户密码是用于重置root用户密码: 1.开机按e. 2.在linux16开头的一行的末尾添加rd.break,按ctrl+x. 3.依次执行命令: mount -o remount,r ...
- (在数据库中调用webservices。)SQL Server 阻止了对组件 'Ole Automation Procedures' 的 过程'sys.sp_OACreate' 的访问
--开启 Ole Automation Procedures sp_configure 'show advanced options', 1; GO RECONFIGURE; GO sp_config ...