MySQL架构与历史

和其他数据库系统相比,MySQL有点与众不同,它的架构可以在多种不同的场景中应用并发挥好的作用,但同时也会带来一点选择上的困难。MySQL并不完美,却足够灵活,它的灵活性体现在很多方面。例如,你可以通过配置使它在不同的硬件上都运行得很好,也可以支持多种不同的数据类型。但MySQL最重要的是它的存储引擎架构,这种架构的设计将查询处理、及其他系统任务和数据的存储/提取相分离。这种处理和存储分离的设计可以在使用时根据性能、特性以及其他需求来选择数据的存储方式。

MySQL逻辑架构

图1-1展示了MySQL的逻辑架构图

图1-1   MySQL服务器逻辑架构图

最上层的服务并不是 MySQL 所独有的,大多数基于网络的客户端/服务器的工具或者服务都有类似的架构。比如连接处理、授权认证、安全等等。

第二层构架是 MySQL 比较有意思的部分。大多数 MySQL 的核心服务功能都在这一层,包括查询结息、分析、优化、缓存以及所有的内置函数(例如:日期、时间、数学和加密函数),所有跨存储引擎的功能都在这一层实现:存储过程、触发器、视图等。

第三层包含了存储引擎。存储引擎负责 MySQL 中数据的存储和提取。和 GNU/Linux 下的各种文件系统一样,每个存储引擎都有它的优势和劣势。服务器通过 API 与存储引擎进行通信。这些接口屏蔽了不同存储引擎之间的差异,使得这些差异对上层的查询过程透明。存储引擎 API 包含了几十个底层函数,用于执行诸如 “开始一个事务” 或者 “根据主键提取一行记录” 等操作。但存储引擎不会去解析 SQL (InnoDB 是一个例外,它会解析外键定义,因为 MySQL 服务器本身没有实现该功能),不同存储引擎之间也不会互相通信,而只是简单地响应上层服务器的请求。

连接管理与安全性

每个客户端连接都会在服务器进程中拥有一个线程,这个连接的查询只会在这个单独的线程中执行,该线程只能轮流在某个CPU核心或者CPU中运行。服务器会负责缓存线程,因此不需要为每一个新建的连接创建或者销毁线程。(注:MySQL5.5或者更新的版本提供的一个API,支持线程池插件,可以使用池中少量的线程来服务大量的连接)。

当客户端(应用)连接到MySQL服务器时,服务器需要对其进行认证。认证基于用户名,原始主机信息和密码。如果使用了安全套接字(SSL)的方式连接,还可以使用X.509证书认证。一旦客户端连接成功,服务器会继续验证客户端是否具有某个特定查询的权限(例如,是否允许客户端对world数据库的Country表执行SELECT语句)。

优化与执行

MySQL会解析查询,并创建内部数据结构(解析树),然后对其进行各种优化,包括重写查询,决定表的读取顺序,以及选择合适的索引等。用户可以通过特殊的关键字提示(hint)优化器,影响它的决策过程。也可以请求优化器解释(explain)优化过程的各个因素,使用户可以知道服务器是如何进行优化决策的,并提供一个参考基准,便于用户重构查询和schema,修改相关配置,是应用尽可能高效运行。

优化器并不关心使用的是什么存储引擎,但存储引擎对于优化查询是有影响的。优化器会请求存储引擎提供容量或某个具体操作的开销信息,以及表数据的统计信息等。例如,某些存储引擎的某种索引,可能对一些特定的查询有优化。

对于SELECT语句,在解析查询之前,服务器会先检查查询缓存(Query Cache),如果能够在其中找到对应的查询,服务器就不必再执行查询解析、优化和执行的整个过程,而是直接返回查询缓存中的结果集。

并发控制

无论何时,只有有多个查询需要在同一时刻修改数据,都会产生并发控制的问题。这里讨论MySQL在两个层面的并发控制:服务器层与存储引擎层。并发控制是一个内容庞大的话题,有大量的理论文献对其进行详细的论述。这里只是简要地讨论MySQL如何控制并发读写。

以Unix系统的email box为例子,典型的mbox文件格式是非常简单的。一个mbox邮箱中的所有邮件都串行在一起,彼此首尾相连。这种格式对于读取和肥西邮件信息非常友好,同时投递邮件也很容易,只要在文件末尾附加新的邮件内容即可。

但是如果两个进程在同一时刻对同一个邮箱投递邮件,会发生什么情况?显然,邮箱的数据会被破坏,两封邮件的内容会交叉地附加在邮箱文件的末尾。设计良好的邮箱投递系统会通过锁(lock)来防止数据损坏。如果客户试图投递邮件,而邮箱已经被其他客户锁住,那么就必须等待,直到锁释放才能进行投递。

这种锁的方案在实际应用环境中虽然工作良好,但是并不支持并发处理。因为在任意一个时刻,只有一个进程可以修改邮箱的数据,这在大容量的邮箱系统中是个问题。

读写锁

从邮箱中读取数据没有这样的麻烦,即使同一时刻多个用户并发读取也不会有什么问题。因为读取不会修改数据,所以不会出错。但是如果某个客户正在读取邮箱,同时另一个用户试图删除编号为25的邮件,会产生什么结果?结论是不确定的,读的客户可能会报错退出,也可能读取不到一致的邮箱数据。所以,为了安全起见,即使是读取邮箱也需要特别注意。

如果把上述的邮箱当成数据库中的一张表,把邮件当成表中的一行记录,就很容易看出,同样的问题依然存在。从很多方面来说,邮箱就是一张简单的数据库表。修改数据库表中的记录,和删除或者修改邮箱中的邮件信息,十分类似。

解决这类经典的问题的方法就是并发控制(读锁和写锁)。其实非常简单,在处理并发读或者写的时候,可以通过实现一个由两种类型的锁组成锁系统来解决问题。这两种类型的锁通常被称为共享锁(shared lock)和排他锁(exclusive lock),也叫读锁(read lock)和写锁(write lock)。

这里先不讨论如何具体实现,描述一下锁的概念如下:读锁是共享的,或者说是相互不阻塞的。多个客户在同一时刻可以同时读取同一资源,而互不干扰。写锁则是排他的,也就是说一个写锁会阻塞其他的写锁和读锁,这是出于安全策略的考虑,只有这样,才能确保给定的时间里,只有一个用户能执行写入,并防止其他用户读取正在写入的同一资源。

在实际的数据库系统中,每时每刻都在发生锁定,当某个用户在修改某一部分数据的时候,MySQL会通过锁定防止其他用户读取同一数据。大多数时候,MySQL锁的内部管理都是透明的。

锁粒度

一种提供共享资源并发性的方式就是让锁定对象更有选择性。尽量只锁定需要修改的部分数据,而不是所有的资源。更理想的方式是,只对会修改的数据片(具体到锁定所修改的字段)进行精确的锁定。任何时候,在给定的资源上,锁定的数据量越少,则系统的并发程度越高,只要互相之间不发生冲突即可。

问题是加锁也需要消耗资源。锁的各种操作,包括获得锁,检查锁是否已经被解除,释放锁等,都会增加系统的开销。如果系统花费大量的时间来管理锁,而不是存取数据,那么系统的性能可能因此受到影响。

所谓的锁策略,就是在锁的开销和数据的安全性之间寻求平衡,这种平衡当然有会影响到性能,大多数商业数据库系统没有提供更多的选择,一般都是在表上施加行级锁(row-level lock),并以各种复杂的方式来实现,以便在锁比较多的情况下尽可能地提供更好的性能。

而MySQL则提供多种选择,每种MySQL存储引擎都可以实现自己的锁策略和锁粒度。在存储引擎的设计中,锁管理是个非常重要的决定。将锁粒度固定在某个级别,可以为某些特定的应用场景提供更好的性能。但是同事却会失去对另外一些应用场景的良好支持。好在Mysql支持多个存储引擎的架构,所以不需要单一的通用解决方案。下面介绍两种最重要的锁策略。

表锁(table lock)

表锁是MySQL中最基本的锁策略,并且是开销最小的策略。表锁非常类似于前文描述的邮箱加锁机制:它会锁定整张表。一个用户在对表进行写操作(插入,删除,更新等等)前,需要先获得写锁,这个会阻塞其他用户对该表的所有读写操作。只有没有写锁的时候,其他读取的用户才能获得读锁,读锁之间是不互相阻塞的。

在特定的场景中,表锁也可能有良好的性能。例如,read local表锁支持某些类型的并发写操作。另外,写锁也比读锁有更高的优先级,因此一个写锁请求可能会被插入到读锁队列的前面(写锁可以插入到锁队列中读锁的前面,反之读锁则不能插入写锁的前面)。

尽管存储引擎可以管理自己的锁,MySQL本身还是会使用各种有效的表锁来实现不同的目的。例如服务器会诸如ALTER TABLE之类的语句使用表锁,而忽略存储引擎的锁机制。

行级锁(row lock)

行级锁可以最大程度地支持并发处理(同时也带来了最大的锁开销)。众多周知,在InnoDB和XtraDB,以及其他一些存储引擎中实现了行级锁。行级锁只在存储引擎层实现,而MySQL服务器层没有实现。服务器层完全不了解存储引擎中的锁实现。

事物

事物是一组原子性的SQL查询,或者说是一个独立的工作单元。如果数据库引擎能够成功地对数据库应用该组查询的全部语句,那么就执行该组查询。如果其中任何一条语句因为崩溃或其他原因无法执行,那么所有语句都不会执行。也就是说,事务内的语句,要么全部执行成功,要么全部执行失败。

事务的四大特性(ACID):

  • 原子性(atomicity):一个事务必须视为一个不可分割的最小工作单元,整个事务中的所有操作要么全部提交成功,要么全部失败回滚,对于一个事务来说,不可能只执行其中的一部分操作,这就是事务的原子性。
  • 一致性(consistency):数据库总数从一个一致性的状态转换到另一个一致性的状态。
  • 隔离性(isolation):一个事务所做的修改在最终提交以前,对其他事务是不可见的。
  • 持久性(durability):一旦事务提交,则其所做的修改就会永久保存到数据库中。此时即使系统崩溃,修改的数据也不会丢失。

就像锁粒度的升级会增加系统开销一样,这种事务处理过程中额外的安全性,也会需要数据库系统做更多的额外工作。一个实现了ACID的数据库,相比没有实现ACID的数据库,通常会需要更强的CPU处理能力、更大的内存和更多的磁盘空间。正如我们之前所说,这也正是MySQL的存储引擎架构可以发挥优势的地方。用户可以根据业务是否需要事务处理,来选择合适的存储引擎。对于一些不需要事务的查询类应用,选择一个非事务型的存储引擎,可以获得更高的性能。即使存储引擎不支持事务,也可以通过LOCK TABLES语句为应用提供一定程度的保护,这些选择用户都可以自主决定。对于一些不需要事物的查询类应用,选择一个非事务型的存储引擎,可以获得更高的性能。即使存储引擎不支持事物,也可以通过LOCK TABLES语句为应用提供一定程度的保护,这些选择用户都可以自己决定。

隔离级别

在SQL标准中定义了四种隔离级别,每一种级别都规定了一个事务中所做的修改,哪些是在事务内和事务间可见的,哪些是不可见的。较低级别的隔离通常可以执行更高的并发,系统的开销也更低。

READ UNCOMMITED(未提交

在RERAD UNCOMMITED级别,事务中的修改,即使没有提交,对其他事务也都是可见的。事务可以读取未提交的数据,这也成为脏读(Dirty Read)。这个级别会导致很多问题,从性能上说READ UNCOMMITED 不会比其他的级别好太多,但缺乏其他级别的好多好处,除非有非常必要的理由,在实际的应用中一般很少使用。

创建一个数据库,执行下面的数据库语句。

create table if not exists `account`(
`id` int(11) primary key auto_increment,
`name` varchar(32),
`balance` int(11) not null
)engine=innodb default charset=utf8; insert into `account`(`name`,`balance`) values("Amy", 1000);
insert into `account`(`name`,`balance`) values("Tom", 500);
insert into `account`(`name`,`balance`) values("John", 350);

  

打开客户端A,并设置当前事物模式为RERAD UNCOMMITED(读未提交)级别,查询表account的数据

# 客户端A
mysql> set session transaction isolation level read uncommitted;
Query OK, 0 rows affected (0.00 sec) mysql> start transaction;
Query OK, 0 rows affected (0.00 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

在客户端A的事物提交前,打开另一个客户端B,更新表account,将id为1的用户余额减去500,再重新查询account表的数据

# 客户端B
mysql> set session transaction isolation level read uncommitted;
Query OK, 0 rows affected (0.00 sec) mysql> start transaction;
Query OK, 0 rows affected (0.00 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec) # 将id为1的用户余额减去500
mysql> update account set balance = balance - 500 where id = 1;
Query OK, 1 row affected (0.01 sec)
Rows matched: 1 Changed: 1 Warnings: 0 mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 500 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

  

然后,我们再回到客户端A,查询account表的数据,可以看到,尽管B的事物尚未提交,但客户端A已经能看到客户端B修改的数据了

# 客户端A
mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 500 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

这时候,如果客户端B回滚,让account恢复到修改前的状态

# 客户端B
mysql> rollback;
Query OK, 0 rows affected (0.06 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

客户端A依旧以为id为1的用户的余额是500,再次执行更新(余额减去500)语句,会发现先余额没有变动

# 客户端A
mysql> update account set balance = balance - 500 where id = 1;
Query OK, 1 row affected (0.00 sec)
Rows matched: 1 Changed: 1 Warnings: 0 mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 500 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

上面的例子就是未提交读的示例,两个并行的事物可以看到对方修改的数据。明明读到id为1的用户余额为500,减去500居然不是0,而仍然是500,殊不知此时客户端B已经回滚了,id为1的用户余额又回到1000,减去500,当然还是500。但现在产生数据不一致了,要想解决这个问题,就要采用读已提交级别的隔离。

READ COMMITED(读已提交

大多数数据库系统的默认隔离级别都是READ COMMITED(但MySQL不是)。READ COMMITED 满足前面提到的隔离性的简单定义:一个事务开始时,只能看见已经提交的事务所做的修改。换句话说,一个事务从开始到提交之前,所做的任何修改对其他事务都是不可见的。这个级别有时候也叫做不可重复的(nonerepeatable read),因为两次执行同样的查询,可能会得到不一样的结果。

打开一个客户端A,并设置当前事物模式为READ COMMITED(读已提交),查询account的数据

# 客户端A
mysql> set session transaction isolation level read committed;
Query OK, 0 rows affected (0.00 sec) mysql> start transaction;
Query OK, 0 rows affected (0.01 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

在客户端A提交事务之前,打开另一个客户端B,同样设置事物模式为READ COMMITED ,更新account表后再读取account的数据

# 客户端B
mysql> set session transaction isolation level read committed;
Query OK, 0 rows affected (0.00 sec) mysql> start transaction;
Query OK, 0 rows affected (0.01 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec) mysql> update account set balance = balance - 500 where id = 1;
Query OK, 1 row affected (0.00 sec)
Rows matched: 1 Changed: 1 Warnings: 0 mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 500 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

这时,客户端B的事物尚未提交,回到客户端A重新读取account表的数据,可以看到,客户端A所看到的数据还是和之前一样,不会发生之前在事物执行时可以读取到对方修改的值

# 客户端A
mysql> set session transaction isolation level read committed;
Query OK, 0 rows affected (0.00 sec) mysql> start transaction;
Query OK, 0 rows affected (0.01 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

但是,如果这时候客户端B提交了事物

# 客户端B
mysql> update account set balance = balance - 500 where id = 1;
Query OK, 1 row affected (0.00 sec)
Rows matched: 1 Changed: 1 Warnings: 0 mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 500 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec) mysql> commit;
Query OK, 0 rows affected (0.02 sec)

  

那么客户端A重新读取account表的数据,会发现两次读取的数据不一致

# 客户端A
mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 500 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

读已提交的一个弊病,就是在一个事物中,两次读取可能会读到不一样的结果,要解决这个问题,就要靠下面的可重复读机制了。

REPEATABLE READ(可重复读)

REPEATABLE READ解决了脏读问题。该级别保证了在同一个事务中多次读取同样的记录的结果是一致的。但是,理论上,可重复读隔离级别还是无法解决另一个幻读 (PhantomRead)的问题。所谓幻读,指的是当某个事务(用户a读数据)在读取某个范围内的记录时,另外一个事务又在该范围内插入了新的记录(数据库在此范围内插入了一条数据),当之前的事务再次读 取该范围的记录时,会产生幻行(Phantom Row)。InnoDB和XtraDB 存储引擎通过多版并发控制(MVCC ,Multivesion Concurrency Control )解决了幻读问题。

打开客户端A,并设置当前事物模式为REPEATABLE READ(可重复读),查询account表的数据

# 客户端A
mysql> set session transaction isolation level repeatable read;
Query OK, 0 rows affected (0.00 sec) mysql> start transaction;
Query OK, 0 rows affected (0.00 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

切换到客户端B,查询account表的数据,更新account表,然后提交事物,再重新读取account表的数据

# 客户端B
mysql> set session transaction isolation level repeatable read;
Query OK, 0 rows affected (0.00 sec) mysql> start transaction;
Query OK, 0 rows affected (0.00 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec) mysql> update account set balance = balance - 500 where id = 1;
Query OK, 1 row affected (0.01 sec)
Rows matched: 1 Changed: 1 Warnings: 0 mysql> commit;
Query OK, 0 rows affected (0.02 sec) #事物提交后,可以看到account表的数据已被修改
mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 500 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

客户端A重新读取account表的数据,和之前的数据做对比,可以发现此时就算客户端B修改了account表的数据并提交事物,但客户端A在一次事物中读取的数据不变

# 客户端A
mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

切换到客户端B,插入一条新数据

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec) mysql> insert into `account`(`name`,`balance`) values("Rose", 900);
Query OK, 1 row affected (0.00 sec) mysql> commit;
Query OK, 0 rows affected (0.06 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 500 |
| 2 | Tom | 500 |
| 3 | John | 350 |
| 4 | Rose | 900 |
+----+------+---------+
4 rows in set (0.00 sec)

  

再回到客户端A,仍然查询account表的数据,可以看到数据还是和之前展示的一样

# 客户端A
mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 1000 |
| 2 | Tom | 500 |
| 3 | John | 350 |
+----+------+---------+
3 rows in set (0.00 sec)

  

SERIALIZABLE(可串行化)

SERIALIZABLE是最高的隔离级别。它通过强制事务串行执行,避免了前面说的幻读问题。简单的来说,SERIALIZABLE会在读的每一行数据上 都加上锁,所以可能导致大量的超时和锁征用问题。实际应用中也很少用到这个隔离级别,只有在非常需要确保数据的一致性而且可以接受没有并发的情况,才可考虑用该级别。

打开客户端A,并设置当前事物模式为SERIALIZABLE,查询account表的数据

# 客户端A
mysql> set session transaction isolation level serializable;
Query OK, 0 rows affected (0.00 sec) mysql> start transaction;
Query OK, 0 rows affected (0.00 sec) mysql> select * from account;
+----+------+---------+
| id | name | balance |
+----+------+---------+
| 1 | Amy | 500 |
| 2 | Tom | 500 |
| 3 | John | 350 |
| 4 | Rose | 900 |
+----+------+---------+
4 rows in set (0.00 sec)

  

打开另一个客户端B,同样设置事物模式为SERIALIZABLE,并插入一条记录

# 客户端B
mysql> set session transaction isolation level serializable;
Query OK, 0 rows affected (0.00 sec) mysql> start transaction;
Query OK, 0 rows affected (0.00 sec) mysql> insert into `account`(`name`,`balance`) values("Lucy", 600);
ERROR 1205 (HY000): Lock wait timeout exceeded; try restarting transaction

  

由于客户端A的事物先客户端B操作了account表,因此事物A会对account表产生表锁,事物B无法操作account表,过了事物超时时间,就会抛出异常

表1-1   ANSI SQL隔离级别
隔离级别 脏读可能性 不可重复读可能性 幻读可能性 加锁读
READ UNCOMMITED YES YES YES NO
READ COMMITED NO YES YES NO
REPEATABLE READ NO NO YES NO
SERIALIZABLE NO NO NO YES

死锁

死锁是指两个或多个事务在同一资源上相互占用,并请求锁定对方占用的资源,从而导致恶性循环的现象。当多个事务试图以不同的顺序锁定资源时,也会产生死锁。多个事物同时锁定同一资源,也会产生死锁。例如,设想下面两个事务同事处理StockPrice表:

# 事务1
START TRANSACTION;
UPDATE StockPrice SET close = 45.50 WHERE stock_id = 4 and date = '2002-05-01';
UPDATE StockPrice SET close = 19.80 WHERE stock_id = 3 and date = '2002-05-02';
COMMIT; # 事务2
START TRANSACTION;
UPDATE StockPrice SET high = 20.12 WHERE stock_id = 3 and date= '2002-05-02';
UPDATE StockPrice SET high = 47.20 WHERE stock_id = 4 and date = '2002-05-01;'

  

如果凑巧,两个事务都执行了第一条UPDATE语句,更新了一行数据,同时也锁定了该行数据,接着每个事务都尝试去执行第二条UPDATE语句,却发现该行已经被对方锁定,然后两个事务都等待对方释放锁,同时又持有对方需要的锁,则陷入死循环。除非有外部因素介入才可能解除死锁。 

为了解决这个问题,数据库系统实现了各种死锁检测和死锁超时机制。越复杂的系统,比如InnoDB存储引擎,越能检测到死锁的循环依赖,并立即返回一个错误。这种解决方式很有效,否则死锁会导致出现非常慢的查询。还有一种解决方式,当查询的时间达到锁等待超时的设定后放弃锁请求,这种方式通常来说不太好。InnoDB目前处理死锁的方法是:将持有最少行级排他锁的事务进行回滚(这是相对比较简单的死锁回滚算法)。

锁的行为和顺序是和存储引擎相关的,以同样的顺序去执行语句时,有些存储引擎会产生死锁,有些则不会。因此死锁的产生有双重原因:有些是因为真正的数据冲突,这种情况通常很难避免,但有些则是完全由于存储引擎的实现方式所导致的。

死锁发生以后,只有部分或者完全回滚其中一个事务,才能打破死锁。对于事务型的系统,这是无法避免的,所以应用程序在设计时必须如何考虑处理死锁。大多数情况下只需要重新执行因死锁回滚的事务即可。

事物日志

事务日志可以帮助提高事务的效率,使用事务日志,存储引擎在修改表的数据时只需要修改其内存拷贝,再把该修改行为记录到保存在硬盘上的事务日志中,而不是每次都将修改的数据本身写入磁盘。事务日志采用的是追加的方式,因此写日志的操作是磁盘上的一小块区域内的顺序I/O,而不像随机I/O需要在磁盘的多个地方移动磁头,所以采用事务日志的方式相对来说要快的多。事务日志保存到磁盘上之后,内存中被修改的数据在后台可以慢慢地刷回磁盘。目前大多数存储引擎都是这么实现的,我们通常称之为预写式日志,修改数据需要写两次磁盘。

如果数据的修改已经记录到事务日志并持久化,但数据本身没有保存到磁盘上,此时系统崩掉了,存储引擎在重启时会自动恢复这些被修改的数据。具体的恢复方式则随着存储引擎的不同而不同。

MySQL中的事物

MySQL提供了两种事务型的存储引擎:InnoDB和NDB Cluster。另外还有一些第三方存储引擎也支持事物,比较知名的包括XtraDB和PBXT。

自动提交(AUTOCOMMIT)

MySQL默认采用自动提交(AUTOCOMMIT)模式。也就是说,如果不是显式地开始一个事务,则每个查询都会被当做一个事务执行提交操作。在当前连接中,可以通过设置AUTOCOMMIT变量来启用或禁用自动提交模式。

AUTOCOMMIT变量来启动或禁用自动提交模式:

mysql> SHOW VARIABLES LIKE 'AUTOCOMMIT';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| autocommit | ON |
+---------------+-------+
1 row in set (0.00 sec) mysql> SET AUTOCOMMIT = 1;
Query OK, 0 rows affected (0.00 sec)

  

1或者ON表示启用,0或者OFF表示禁用。当AUTOCOMMIT=0时,所有的查询都是在一个是事务中,直到显式的执行COMMIT提交或者ROLLBACK回滚,该事务结束。同时又开始了另一个新事务。修改AUTOCOMMIT对非事务型的表,比如MyISAM或者内存表,不会有任何影响。对这类表来说,没有COMMIT或者ROLLBACK的概念,也可以说是相当于一直处于AUTOCOMMIT启用的模式。

还有一些命令,在执行之前会强制执行COMMIT提交当前的活动事务。在数据定义语言(DDL)中,如果是会导致大量数据改变的操作,比如ALTER TABLE。另外还有LOCK TABLES等其他语句也会导致同样的效果。如果有需要,请检查对应版本的官方文档来确认所有可能导致自动提交的语句列表

MySQL可以通过执行SET TRANSACTION ISOLATION LEVEL 命令来设置隔离级别。新的隔离级别会在下一个事务开始的时候生效。可以在配置文件中设置整个数据库的隔离级别,也可以只改变当前会话的隔离级别:

set session transaction isolation level read committed;

  

MySQL能识别所有的4个ANSI隔离级别,InnoDB引擎也支持所有的隔离级别。

在事务中混合使用存储引擎

MySQL服务层不管理事务,事务是由下层的存储引擎实现的。所以在同一个事务中,使用多种存储引擎是不可靠的。如果在事务中混合使用了事务型和非事务型的表(例如InnoDB和MyISAM表)。在正常提交的情况下不会有什么问题。但如果该事务需要回滚,非事务型的表上的变更就无法撤销,这会导致数据库处于不一致的状态,这种情况很难修复,事务的最终结果将无法判定。

在非事务型的表上执行事务相关操作的时候,MySQL通常不会发出提醒,也不会报错。有时候只有回滚的时候才会发出一个警告:“某些非事务型的表上的变更不能被回滚”。但大多数情况下,对非事务型表的操作都不会有提示。

隐式和显式锁定

nnoDB采用的是两阶段锁定协议(two-phase locking protocol)。在事务执行的过程中,随时都可以执行锁定,锁只有在执行COMMIT或ROLLBACK的时候才会释放,并且所有的锁是在同一时刻被释放。这些锁都是隐式锁定,InnoDB会根据隔离级别在需要的时候自动加锁。

另外,InnoDB也支持通过特定的语句进行显式的锁定,这些语句不属于SQL规范:

SELECT ... LOCK IN SHARE MODE
SELECT ... FOR UPDATE

  

MySQL也只支持LOCK TABLES和UNLOCK TABLES语句,这是在服务层实现的,和存储引擎无关。它们有自己的用途,并不能代替事务处理。如果应用需要用到事务,还是应该选择事务型存储引擎。经常可以发现,应用语句将表从MyISAM转换到InnoDB,但还是显式地使用LOCK TABLES语句,这非但没有必要,会严重影响性能,实际上InnoDB的行级锁工作得更好。

LOCK TABLES和事务直接相互影响的话,情况会变得非常复杂。除了在事务中禁用AUTOCOMMIT,可以使用LOCK TABLES外,其他任何时候不要显式地执行LOCK TABLES,不管使用的是什么存储引擎。

MySQL之架构与历史(一)的更多相关文章

  1. MySQL之架构与历史(二)

    多版本并发控制 MySQL的大多数事务型存储引擎实现的都不是简单的行级锁.基于提升并发性能的考虑,它们一般都同时实现了多版本并发控制(MVCC).不仅是MySQL,包括Oracle.PostgreSQ ...

  2. MySQL的架构与历史

    MySQL的最主要特性是它的存储引擎架构,这种架构设计将查询处理以及其他系统任务和数据的存储/提取相分离. MySQL最上层服务是一些如连接处理,授权认证,安全等. MySQL的核心服务功能大部分度在 ...

  3. MySql的架构和历史

    1.1.mysql的逻辑架构 架构为如下: 存储引擎:负责数据的储存和提取,供了几十个API供服务层进行调用.各个存储引擎之间不会进行交互,只是供服务层进行调用.事务控制和锁的管理也是在存储引擎里面进 ...

  4. 《高性能mysql》笔记(第一章,mysql的架构与历史)

    mysql的服务器逻辑架构图如下: 目前工作用的5.5版本,5.5版本开始mysql开始将innoDB作为默认的存储引擎,innoDB的表是基于聚簇索引建立的. mysql的存储引擎锁管理非常重要,在 ...

  5. 第一章 mysql 的架构与历史

    一.mysql 的逻辑架构 1.连接管理与安全性 2.优化与执行 二.并发控制 1.读写锁 2.锁粒度 三.事物 1.隔离级别 2.死锁 3.事物日志 四.多版本并发控制 五.Mysql 的存储引擎

  6. 高性能MySQL——第一章MySQL的架构与历史

    1.可以使用SHOW TABLE STATUS查询表的相关信息. 2.默认存储引擎是InnoDB,如果没有什么很特殊的要求,InnoDB引擎是我们最好的选择. 3.mysql的infobright引擎 ...

  7. 《高性能MySQL》——第一章MySQL的架构与历史

    1.可以使用SHOW TABLE STATUS查询表的相关信息. 2.默认存储引擎是InnoDB,如果没有什么很特殊的要求,InnoDB引擎是我们最好的选择. 3.mysql的infobright引擎 ...

  8. 第一章 MYSQL的架构和历史

    在读第一章的过程中,整理出来了一些重要的概念. 锁粒度  表锁(服务器实现,忽略存储引擎). 行锁(存储引擎实现,服务器没有实现). 事务的ACID概念 原子性(要么全部成功,要么全部回滚). 一致性 ...

  9. mysql笔记01 MySQL架构与历史、Schema与数据类型优化

    MySQL架构与历史 1. MySQL架构推荐参考:http://www.cnblogs.com/baochuan/archive/2012/03/15/2397536.html 2. MySQL会解 ...

随机推荐

  1. DataView RowFilter

    DataView类用来表示定制的DataTable的视图. DataTable和DataView的关系是遵循著名的设计模式--文档/视图模式,其中DataTable是文档,而Dataview是视图. ...

  2. 利用ajax实现分页效果

    在网页中看到的分页效果,想一下就点击分页中的内容的时候,然后调用ajax调出对应的数据,正确的显示在相应的标签内. 1.用html实现正确的样式和结构 2.采用jquery中的ajax调出数据. 需要 ...

  3. bzoj1189 [HNOI2007]紧急疏散

    Description 发生了火警,所有人员需要紧急疏散!假设每个房间是一个N M的矩形区域.每个格子如果是'.',那么表示这是一块空地:如果是'X',那么表示这是一面墙,如果是'D',那么表示这是一 ...

  4. wu2198:难得的波段抄底机会

    很好的波段抄底机会 个人浅见看,目前染料股跌出的机会明显,养殖股波段机会明显,芯片.半导体.集成电路.北导.软件.国产操作系统等科技股短线机会不错.另外,大盘指数2856/2806区域的波段操作机会不 ...

  5. 2017.12.20 Java中的 IO/XML学习总结 File类详细

    IO / XML 一.File类 1.定义/概念 Java是面向对象的语言,要想把数据存到文件中,就必须要有一个对象表示这个文件.File类的作用就是代表一个特定的文件或目录,并提供了若干方法对这些文 ...

  6. 标准输入输出 stdio 流缓冲 buffering in standard streams

    From : http://www.pixelbeat.org/programming/stdio_buffering/ 译者:李秋豪 我发现找出标准流用的是什么缓冲是一件困难的事. 例如下面这个使用 ...

  7. 文件系统 - Linux 支持的文件系统类型

    NAME 文件系统 - Linux 支持的文件系统类型:minix, ext, ext2, xia, msdos, umsdos, vfat, proc, nfs, iso9660, hpfs, sy ...

  8. Python判断一个数是否为小数

    一.判断一个数是否为小数 1.有且仅有一个小数点 2.小数点的左边可能为正数或负数 3.小数点的右边为正数 二.实现代码 def is_float(str): if str.count('.') == ...

  9. javaweb基础(25)_jsp标签实例一

    一.简单标签(SimpleTag) 由于传统标签使用三个标签接口来完成不同的功能,显得过于繁琐,不利于标签技术的推广, SUN公司为降低标签技术的学习难度,在JSP 2.0中定义了一个更为简单.便于编 ...

  10. CUDA:Supercomputing for the Masses (用于大量数据的超级计算)-第三节

    原文链接 第三节:错误处理和全局内存性能局限 恭喜!通过对CUDA(Compute Unified DeviceArchitecture,即计算统一设备架构的首字母缩写)系列文章第一节和第二节,您现在 ...