mysqldump的备份原理
mysqldump在备份过程中,是采用查询备份相关表的数据,然后导出,拼接成insert语句的形式进行备份。
 
关于--single-transaction 和--lock-tables
--single-transaction选项和--lock-tables选项是互斥的,因为LOCK TABLES会使任何挂起的事务隐含提交
 
相关探究实验
1.开启mysql general log
2.对数据库进行备份
 
/usr/local/mysql/bin/mysqldump -uroot -p -h 127.0.0.1 --hex-blob -A --events --ignore-table=mysql.events --single-transaction --master-data=2 >/tmp/20160304alls.sql
 
 
 
 
在不同参数的配合下,备份方式有所不同,因为mysqldump是查询数据库的备份方式,所以我们开启general-log来查看mysqldump究竟如何完成备份过程。在备份过程中,获取对应的部分备份的执行的语句列表进行分析
 
 
--master-data=2
备份头部:
 
 9:51:09    25646 Connect    root@127.0.0.1 on
        25646 Query    /*!40100 SET @@SQL_MODE='' */
        25646 Query    /*!40103 SET TIME_ZONE='+00:00' */
        25646 Query    FLUSH /*!40101 LOCAL */ TABLES
        25646 Query    FLUSH TABLES WITH READ LOCK
        25646 Query    SET SESSION TRANSACTION ISOLATION LEVEL REPEATABLE READ
        25646 Query    START TRANSACTION /*!40100 WITH CONSISTENT SNAPSHOT */
        25646 Query    SHOW VARIABLES LIKE 'gtid\_mode'
        25646 Query    SHOW MASTER STATUS
        25646 Query    UNLOCK TABLES
 
 
--master-data=2的作用:
这段代码,通过FLUSH TABLES WITH READ LOCK ,然后SHOW MASTER STATUS,再然后UNLOCK TABLES,在这个过程中获取到了master在lock时刻的binlog,获取binlog位置的过程一定是在加锁后,这样才可以准确获取响应的binlog
位置,而这个位置,会在备份文件的-- CHANGE MASTER TO MASTER_LOG_FILE='mysql-bin.000009', MASTER_LOG_POS=655717;来体现,非常适合用于点对点的备份恢复 (--master-data=2)
 
 
 
 
--single-transaction
5646 Query    SET SESSION TRANSACTION ISOLATION LEVEL REPEATABLE READ
        25646 Query    START TRANSACTION /*!40100 WITH CONSISTENT SNAPSHOT */
        25646 Query    SHOW VARIABLES LIKE 'gtid\_mode'
        25646 Query    SHOW MASTER STATUS
        25646 Query    UNLOCK TABLES
        25646 Query    SELECT LOGFILE_GROUP_NAME, FILE_NAME, TOTAL_EXTENTS, INITIAL_SIZE, ENGINE, EXTRA FROM INFORMATION_SCHEMA.FILES WHERE FILE_TYPE = 'UNDO LOG' AND FILE_NAME IS NOT NULL GROUP BY LOGFILE_GROUP_NAME, FILE_NAME, ENGINE ORDER BY LOGFILE_GROUP_NAME
        25646 Query    SELECT DISTINCT TABLESPACE_NAME, FILE_NAME, LOGFILE_GROUP_NAME, EXTENT_SIZE, INITIAL_SIZE, ENGINE FROM INFORMATION_SCHEMA.FILES WHERE FILE_TYPE = 'DATAFILE' ORDER BY TABLESPACE_NAME, LOGFILE_GROUP_NAME
        25646 Query    SHOW DATABASES
        25646 Query    SHOW VARIABLES LIKE 'ndbinfo\_version'
        25646 Init DB    hive
        25646 Query    SHOW CREATE DATABASE IF NOT EXISTS `hive`
        25646 Query    SAVEPOINT sp
        25646 Query    show tables
        25646 Query    show table status like 'bucketing\_cols'
        25646 Query    SET SQL_QUOTE_SHOW_CREATE=1
        25646 Query    SET SESSION character_set_results = 'binary'
        25646 Query    show create table `bucketing_cols`
        25646 Query    SET SESSION character_set_results = 'utf8'
        25646 Query    show fields from `bucketing_cols`
        25646 Query    SELECT /*!40001 SQL_NO_CACHE */ * FROM `bucketing_cols`
        25646 Query    SET SESSION character_set_results = 'binary'
        25646 Query    use `hive`
        25646 Query    select @@collation_database
        25646 Query    SHOW TRIGGERS LIKE 'bucketing\_cols'
        25646 Query    SET SESSION character_set_results = 'utf8'
        25646 Query    ROLLBACK TO SAVEPOINT sp
 
 
在搭配--single-transaction 参数后,会在FLUSH TABLES WITH READ LOCK 后添加START TRANSACTION 语句,用来开启单一事务 ,这个时候的加锁,仅仅是为了确定master-data中的binlog的具体位置和开启事务,开启事务后,就已经把读锁释放了,而且在由日志可以看出,在日志的回滚过程中,是回滚到单一的TRANSACTION,也是sp点,每次进行对表和参数的改动后,都会对事务进行回滚。 通过对备份log的分析,可以发现,所有的的备份阶段完成后,都是rollback到sp点的。也就是返回到SAVEPOINT sp时间点,也就是备份完成后,实际上备份库仍然是在sp点,而这个所谓的sp回滚,其实是调用的undo中的数据快照来实现的。
使用--single-transaction 可以保证在备份过程中,整个备份集的数据一致性。
 
 
 
 
--lock-tables
 
14707 Query    SET autocommit=0
        14707 Query    SELECT @@session.tx_isolation
        14707 Query    rollback
        14707 Query    SET autocommit=1
        14707 Query    set session transaction read write
        14711 Query    select @@session.tx_read_only
        14711 Query    SET autocommit=0
        14711 Query    SELECT @@session.tx_isolation
        14711 Query    SELECT 'org.apache.hadoop.hive.metastore.model.MDatabase' AS `NUCLEUS_TYPE`,`A0`.`DESC`,`A0`.`DB_LOCATION_URI`,`A0`.`NAME`,`A0`.`OWNER_NAME`,`A0`.`OWNER_TYPE`,`A0`.`DB_ID` FROM `DBS` `A0` WHERE `A0`.`NAME` = ''
        14711 Query    SELECT 'org.apache.hadoop.hive.metastore.model.MTableColumnStatistics' AS `NUCLEUS_TYPE`,`A0`.`AVG_COL_LEN`,`A0`.`COLUMN_NAME`,`A0`.`COLUMN_TYPE`,`A0`.`DB_NAME`,`A0`.`BIG_DECIMAL_HIGH_VALUE`,`A0`.`BIG_DECIMAL_LOW_VALUE`,`A0`.`DOUBLE_HIGH_VALUE`,`A0`.`DOUBLE_LOW_VALUE`,`A0`.`LAST_ANALYZED`,`A0`.`LONG_HIGH_VALUE`,`A0`.`LONG_LOW_VALUE`,`A0`.`MAX_COL_LEN`,`A0`.`NUM_DISTINCTS`,`A0`.`NUM_FALSES`,`A0`.`NUM_NULLS`,`A0`.`NUM_TRUES`,`A0`.`TABLE_NAME`,`A0`.`CS_ID` FROM `TAB_COL_STATS` `A0` WHERE `A0`.`DB_NAME` = ''
        14711 Query    SELECT 'org.apache.hadoop.hive.metastore.model.MPartitionColumnStatistics' AS `NUCLEUS_TYPE`,`A0`.`AVG_COL_LEN`,`A0`.`COLUMN_NAME`,`A0`.`COLUMN_TYPE`,`A0`.`DB_NAME`,`A0`.`BIG_DECIMAL_HIGH_VALUE`,`A0`.`BIG_DECIMAL_LOW_VALUE`,`A0`.`DOUBLE_HIGH_VALUE`,`A0`.`DOUBLE_LOW_VALUE`,`A0`.`LAST_ANALYZED`,`A0`.`LONG_HIGH_VALUE`,`A0`.`LONG_LOW_VALUE`,`A0`.`MAX_COL_LEN`,`A0`.`NUM_DISTINCTS`,`A0`.`NUM_FALSES`,`A0`.`NUM_NULLS`,`A0`.`NUM_TRUES`,`A0`.`PARTITION_NAME`,`A0`.`TABLE_NAME`,`A0`.`CS_ID` FROM `PART_COL_STATS` `A0` WHERE `A0`.`DB_NAME` = ''
        14711 Query    commit
        14711 Query    rollback
        14711 Query    SET autocommit=1
        14711 Query    set session transaction read write
 
--lock-tables
从日志可以看出,在采用该参数后,在每次的不同备份id的备份过程中,都会先开启一个事务,然后再提交,这样在整个备份过程中,会有多次的事务开启与提交过程,在备份过程中的大量事务的开启与关闭,这样势必会和带--single-transaction出现差距 。
我们可以得到如下结论:
1. 带--lock-tables参数的备份过程在时间上会比较长,而且这种时间的差距,在大表的时候会表现的更加明显
2. 带--lock-tables参数后,只会影响对应备份过程中的表,而不会对备份过后的表有所影响,但是在--single-transaction过程中,因为单一事务的检查点已经在刚开始时候就已经被确定为sp,所有的备份过程的回滚过程都是sp点,所以,即使备份完成后的表,也会受到事务内相关锁的影响。因此可见在--single-transaction备份过程中,虽然备份速度有所加快,但是对于数据库的影响时间也是比较长的。
3.带--lock-tables参数的情况下,并不能保证全库备份情况下的数据一致性。即所有的数据,不一定是在一个时间点的数据。
 
 
 
 
 
--lock-all-tables
 
 
 14707 Query     SET autocommit=0
                14707 Query     SELECT @@session.tx_isolation
                14707 Query     rollback
                14707 Query     SET autocommit=1
                14707 Query     set session transaction read write
                14710 Query     select @@session.tx_read_only
                14710 Query     SET autocommit=0
                14710 Query     SELECT @@session.tx_isolation
                14710 Query     SELECT 'org.apache.hadoop.hive.metastore.model.MDatabase' AS `NUCLEUS_TYPE`,`A0`.`DESC`,`A0`.`DB_LOCATION_URI`,`A0`.`NAME`,`A0`.`OWNER_NAME`,`A0`.`OWNER_TYPE`,`A0`.`DB_ID` FROM `DBS` `A0` WHERE `A0`.`NAME` = ''
                14710 Query     SELECT 'org.apache.hadoop.hive.metastore.model.MTableColumnStatistics' AS `NUCLEUS_TYPE`,`A0`.`AVG_COL_LEN`,`A0`.`COLUMN_NAME`,`A0`.`COLUMN_TYPE`,`A0`.`DB_NAME`,`A0`.`BIG_DECIMAL_HIGH_VALUE`,`A0`.`BIG_DECIMAL_LOW_VALUE`,`A0`.`DOUBLE_HIGH_VALUE`,`A0`.`DOUBLE_LOW_VALUE`,`A0`.`LAST_ANALYZED`,`A0`.`LONG_HIGH_VALUE`,`A0`.`LONG_LOW_VALUE`,`A0`.`MAX_COL_LEN`,`A0`.`NUM_DISTINCTS`,`A0`.`NUM_FALSES`,`A0`.`NUM_NULLS`,`A0`.`NUM_TRUES`,`A0`.`TABLE_NAME`,`A0`.`CS_ID` FROM `TAB_COL_STATS` `A0` WHERE `A0`.`DB_NAME` = ''
                14710 Query     SELECT 'org.apache.hadoop.hive.metastore.model.MPartitionColumnStatistics' AS `NUCLEUS_TYPE`,`A0`.`AVG_COL_LEN`,`A0`.`COLUMN_NAME`,`A0`.`COLUMN_TYPE`,`A0`.`DB_NAME`,`A0`.`BIG_DECIMAL_HIGH_VALUE`,`A0`.`BIG_DECIMAL_LOW_VALUE`,`A0`.`DOUBLE_HIGH_VALUE`,`A0`.`DOUBLE_LOW_VALUE`,`A0`.`LAST_ANALYZED`,`A0`.`LONG_HIGH_VALUE`,`A0`.`LONG_LOW_VALUE`,`A0`.`MAX_COL_LEN`,`A0`.`NUM_DISTINCTS`,`A0`.`NUM_FALSES`,`A0`.`NUM_NULLS`,`A0`.`NUM_TRUES`,`A0`.`PARTITION_NAME`,`A0`.`TABLE_NAME`,`A0`.`CS_ID` FROM `PART_COL_STATS` `A0` WHERE `A0`.`DB_NAME` = ''
                14710 Query     commit
                14710 Query     rollback
                14710 Query     SET autocommit=1
                14710 Query     set session transaction read write
 
 
虽然官方说,--lock-all-tables对所有的表都进行了加锁,但是我发现,其加锁过程和--lock-tables几乎是一致的。
 
 
 
如果你感觉上面讲的很乱,看结论就行了:
 
总结:
1.要实现点对点的备份恢复,或者对于某点的数据完整备份,必须使用--single-transaction 和--master-data=2两个参数,比如主从搭建时候的,因为在--single-transaction参数中,没可以保证数据备份的备份时间点的事务一致性
2.--single-transaction备份对于数据库的影响时间比较长,影响范围比较大 ,但是加入该参数后,对于多张大表的备份速度肯定会加快。
3.--lock-all-tables并不能保持所有数据对于某个时间点的一致性。

mysqldump --single-transaction 和--lock-tables参数详解的更多相关文章

  1. mysqldump的常用语句及各参数详解

    mysqldump的常用语句及各参数详解 分类: MySQL 2011-01-11 17:55 1368人阅读 评论(0) 收藏 举报 数据库mysql服务器tableinsertdatabase m ...

  2. Mysqldump 参数详解(全)

    Mysqldump 参数详解(全) http://www.open-open.com/lib/view/open1358172843762.html mysqldump -S /tmp/mysql33 ...

  3. InnoDB参数详解

    1.查询5.5版本的InnoDB参数并注释:[root@localhost etc]# grep -i innodb my.cnf; t_innodb; otherwise, slaves may d ...

  4. mysql的my.cnf参数详解

    转载[Mysql] MySQL配置文件my.cnf的理解 一.缘由 最近要接手数据库的维护工作,公司首选MySQL.对于MySQL的理解,我认为很多性能优化工作.主从主主复制都是在调整参数,来适应不同 ...

  5. mha配置参数详解

    mha配置参数详解: 参数名字 是否必须 参数作用域 默认值 示例 hostname Yes Local Only - hostname=mysql_server1, hostname=192.168 ...

  6. MHA配置参数详解 【转】

    mha配置参数详解: 参数名字 是否必须 参数作用域 默认值 示例 hostname Yes Local Only - hostname=mysql_server1, hostname=192.168 ...

  7. Xtrabackup 安装 参数详解

    目录 安装 常用参数详解 innobackupex 相关参数 xtrabackup相关参数 安装 继Xtrabackup 介绍,本次来讲解安装和使用. Xtrabackup的RPM包下载地址: 系统版 ...

  8. iptables参数详解

    iptables参数详解 搬运工:尹正杰 注:此片文章来源于linux社区. Iptalbes 是用来设置.维护和检查Linux内核的IP包过滤规则的. 可以定义不同的表,每个表都包含几个内部的链,也 ...

  9. MySQL复制相关参数详解

    MySQL复制相关参数详解 作者:尹正杰  版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.复制相关系统变量 1>.server_id 是必须设置在master和每个slave上的唯一标 ...

  10. 硬盘SMART检测参数详解[转]

    一.SMART概述        要说Linux用户最不愿意看到的事情,莫过于在毫无警告的情况下发现硬盘崩溃了.诸如RAID的备份和存储技术可以在任何时候帮用户恢复数据,但为预防硬件崩溃造成数据丢失所 ...

随机推荐

  1. 洛谷 P2374 搬运工

    P2374 搬运工 题目背景 陈老师喜欢网购书籍,经常一次购它个百八十本,然后拿来倒卖牟取暴利.(ps:描述要看懂) 题目描述 前些天,高一的新同学来了,他便像往常一样兜售他的书,经过一番口舌,同学们 ...

  2. word2vec源代码解析之word2vec.c

    word2vec源代码解析之word2vec.c 近期研究了一下google的开源项目word2vector,http://code.google.com/p/word2vec/. 事实上这玩意算是神 ...

  3. css实现简单的告警提示动画效果

    需求:css实现简单的告警提示动画效果,当接收到实时信息的时候,页面弹出告警信息的动画效果 <!DOCTYPE html> <html lang="en"> ...

  4. query中prop()方法和attr()方法的区别

    query1.6中新加了一个方法prop(),一直没用过它,官方解释只有一句话:获取在匹配的元素集中的第一个元素的属性值. 官方例举的例子感觉和attr()差不多,也不知道有什么区别,既然有了prop ...

  5. Codeforces Beta Round #16 E. Fish (状压dp)(概率dp)

    Codeforces Beta Round #16 (Div. 2 Only) E. Fish 题目链接:## 点击打开链接 题意: 有 \(n\) 条鱼,每两条鱼相遇都会有其中一只吃掉对方,现在给你 ...

  6. 1.6 Python基础知识 - for循环

    在循环语句中,除了while循环外,还有一种循环叫for循环的循环语句,for循环语句用于遍历可迭代(什么是迭代?以及迭代的相关知识,我们到后面再进行阐述,这里只要记住就可以了.)对象集合中的元素,并 ...

  7. 关于python的深浅拷贝、赋值

    https://blog.csdn.net/weixin_39750084/article/details/81435454

  8. 最大公约数最小公倍数 (例:HDU2028 Lowest Common Multiple Plus)

    也称欧几里得算法 原理: gcd(a,b)=gcd(b,a mod b) 边界条件为 gcd(a,0)=a; 其中mod 为求余 故辗转相除法可简单的表示为: int gcd(int a, int b ...

  9. 【Redis】redis的安装、配置执行及Jedisclient的开发使用

    定义: Redis is an open source, BSD licensed, advanced key-value cache and store. It is often referred ...

  10. pat 2-05. 求集合数据的均方差(水题)

    代码: #include<cstdio> #include<iostream> #include<cmath> using namespace std; doubl ...