pt-ioprofile工具:
1.percona-toolkit(在http://www.percona.com下载)
2.安装该工具依赖的perl组件
yum install perl-IO-Socket-SSL perl-DBD-MySQL perl-Time-HiRes -y
3.rpm -ivh percona-toolkit-2.2.8-1.noarch.rpm
 
pt-table-checksum
主库

root@localhost 22:57:02 [(none)]> GRANT SELECT, insert,update,delete,create,PROCESS, SUPER, REPLICATION SLAVE ON *.* TO 'lk'@'%' identified by 'lk';

(可以校验有主键和没有主键的表,但修复只能修复有主键的)
  1. 主库:
  2. root@localhost 13:28:47[db1]> select * from test2;
  3. +----+------+
  4. | id | name |
  5. +----+------+
  6. |  1| a    |
  7. |  2| a    |
  8. |  3| a    |
  9. +----+------+
  10. 3 rows in set(0.00 sec)
  11. 从库:
  12. mysql> select * from test2;
  13. +----+------+
  14. | id | name |
  15. +----+------+
  16. |  1| a    |
  17. |  2| bbbb |
  18. |  4| a    |
  19. +----+------+
  20. 3 rows in set(0.00 sec)
 
h是主库ip,开始校验:
  1. [root@likun ~]# pt-table-checksum h='192.168.1.20',u='lk',p='lk',P=3306-d db1 --nocheck-replication-filters --replicate=db1.checksums --create-replicate-table --no-check-binlog-format
  2.             TS ERRORS  DIFFS     ROWS  CHUNKS SKIPPED    TIME TABLE
  3. 09-09T23:50:00      0      1        1       1       0   0.521 db1.test
  4. 09-09T23:50:01      0      1        2       1       0   0.278 db1.test2
主要看:DIFFS(0 表示全部一致)
其次是 ERRORS
 再其次是CHUNKS
执行结果显示参数意义:  
 TS            :完成检查的时间。  
ERRORS     :检查时候发生错误和警告的数量。  
DIFFS        :0表示一致,大于0表示不致。当指定--no-replicate-check时,会一直为0,当指定--replicate-check-only会显示不同的信息。  
ROWS       :表的行数。  
CHUNKS    :被划分到表中的块的数目。  
SKIPPED    :由于错误或警告或过大,则跳过块的数目。  
TIME         :执行的时间。  
TABLE       :被检查的表名。
 
 
 pt-table-sync
发生不一致,想查看一下那些不致? 怎么查?
原理是将差异数据,包装成replace into和delete,在主库执行,进而同步到从库。这些改变不会更改主库。
 
--print把要修复的用的语句打出来
pt-table-sync --replicate=db1.checksums --databases=db1 --charset=utf8 h='192.168.1.20',u='lk',p='lk' --print
  1. [root@likun data]# pt-table-sync --replicate=db1.checksums --databases=db1 --charset=utf8 h='192.168.1.20',u='lk',p='lk'--print
  2. Can't make changes on the master because no unique index exists at /usr/bin/pt-table-sync line 10648.  while doing db1.test on 192.168.1.25
  3. DELETE FROM `db1`.`test2` WHERE `id`='4' LIMIT 1/*percona-toolkit src_db:db1 src_tbl:test2 src_dsn:A=utf8,h=192.168.1.20,p=...,u=lk dst_db:db1 dst_tbl:test2 dst_dsn:A=utf8,h=192.168.1.25,p=...,u=lk lock:1 transaction:1 changing_src:db1.checksums replicate:db1.checksums bidirectional:0 pid:3669 user:root host:likun.com*/;
  4. REPLACE INTO `db1`.`test2`(`id`,`name`) VALUES ('2','a')/*percona-toolkit src_db:db1 src_tbl:test2 src_dsn:A=utf8,h=192.168.1.20,p=...,u=lk dst_db:db1 dst_tbl:test2 dst_dsn:A=utf8,h=192.168.1.25,p=...,u=lk lock:1 transaction:1 changing_src:db1.checksums replicate:db1.checksums bidirectional:0 pid:3669 user:root host:likun.com*/;
  5. REPLACE INTO `db1`.`test2`(`id`,`name`) VALUES ('3','a')/*percona-toolkit src_db:db1 src_tbl:test2 src_dsn:A=utf8,h=192.168.1.20,p=...,u=lk dst_db:db1 dst_tbl:test2 dst_dsn:A=utf8,h=192.168.1.25,p=...,u=lk lock:1 transaction:1 changing_src:db1.checksums replicate:db1.checksums bidirectional:0 pid:3669 user:root host:likun.com*/;
--execute在主库执行修复语句:
pt-table-sync --replicate=db1.checksums --databases=db1 --charset=utf8 h='192.168.1.20',u='lk',p='lk'  --execute
 
之后,看主库binlog日志:
  1. DELETE FROM `db1`.`test2` WHERE `id`='4' LIMIT 1/*percona-toolkit src_db:db1 src_tbl:test2 src_dsn:A=utf8,h=192.168.1.20,p=...,u=lk dst_db:db1 dst_tbl:test2 dst_dsn:A=utf8,h=192.168.1.25,p=...,u=lk lock:1 transaction:1 changing_src:db1.checksums replicate:db1.checksums bidirectional:0 pid:3697 user:root host:likun.com*/
  2. /*!*/;
  3. # at 558
  4. #140917 13:35:11 server id 1  end_log_pos 952   Query   thread_id=1749  exec_time=0     error_code=0
  5. SET TIMESTAMP=1410932111/*!*/;
  6. REPLACE INTO `db1`.`test2`(`id`,`name`) VALUES ('2','a')/*percona-toolkit src_db:db1 src_tbl:test2 src_dsn:A=utf8,h=192.168.1.20,p=...,u=lk dst_db:db1 dst_tbl:test2 dst_dsn:A=utf8,h=192.168.1.25,p=...,u=lk lock:1 transaction:1 changing_src:db1.checksums replicate:db1.checksums bidirectional:0 pid:3697 user:root host:likun.com*/
  7. /*!*/;
  8. # at 952
  9. #140917 13:35:11 server id 1  end_log_pos 1346  Query   thread_id=1749  exec_time=0     error_code=0
  10. SET TIMESTAMP=1410932111/*!*/;
  11. REPLACE INTO `db1`.`test2`(`id`,`name`) VALUES ('3','a')/*percona-toolkit src_db:db1 src_tbl:test2 src_dsn:A=utf8,h=192.168.1.20,p=...,u=lk dst_db:db1 dst_tbl:test2 dst_dsn:A=utf8,h=192.168.1.25,p=...,u=lk lock:1 transaction:1 changing_src:db1.checksums replicate:db1.checksums bidirectional:0 pid:3697 user:root host:likun.com*/
  12. /*!*/;
  13. # at 1346
  14. #140917 13:35:11 server id 1  end_log_pos 1373  Xid = 5490152
  15. COMMIT/*!*/;
 
查看从库relay-log:
  1. DELETE FROM `db1`.`test2` WHERE `id`='4' LIMIT 1/*percona-toolkit src_db:db1 src_tbl:test2 src_dsn:A=utf8,h=192.168.1.20,p=...,u=lk dst_db:db1 dst_tbl:test2 dst_dsn:A=utf8,h=192.168.1.25,p=...,u=lk lock:1 transaction:1 changing_src:db1.checksums replicate:db1.checksums bidirectional:0 pid:3697 user:root host:likun.com*/
  2. /*!*/;
  3. # at 704
  4. #140917 13:35:11 server id 1  end_log_pos 952   Query   thread_id=1749  exec_time=0     error_code=0
  5. SET TIMESTAMP=1410932111/*!*/;
  6. REPLACE INTO `db1`.`test2`(`id`,`name`) VALUES ('2','a')/*percona-toolkit src_db:db1 src_tbl:test2 src_dsn:A=utf8,h=192.168.1.20,p=...,u=lk dst_db:db1 dst_tbl:test2 dst_dsn:A=utf8,h=192.168.1.25,p=...,u=lk lock:1 transaction:1 changing_src:db1.checksums replicate:db1.checksums bidirectional:0 pid:3697 user:root host:likun.com*/
  7. /*!*/;
  8. # at 1098
  9. #140917 13:35:11 server id 1  end_log_pos 1346  Query   thread_id=1749  exec_time=0     error_code=0
  10. SET TIMESTAMP=1410932111/*!*/;
  11. REPLACE INTO `db1`.`test2`(`id`,`name`) VALUES ('3','a')/*percona-toolkit src_db:db1 src_tbl:test2 src_dsn:A=utf8,h=192.168.1.20,p=...,u=lk dst_db:db1 dst_tbl:test2 dst_dsn:A=utf8,h=192.168.1.25,p=...,u=lk lock:1 transaction:1 changing_src:db1.checksums replicate:db1.checksums bidirectional:0 pid:3697 user:root host:likun.com*/
  12. /*!*/;
  13. # at 1492
  14. #140917 13:35:11 server id 1  end_log_pos 1373  Xid = 5490152
  15. COMMIT/*!*/;
最后检查主从全变成:
  1. +----+------+
  2. | id | name |
  3. +----+------+
  4. |  1| a    |
  5. |  2| a    |
  6. |  3| a    |
  7. +----+------+
 
数据校验和同步,在业务压力较小的时候执行就可以。
 
小tips:主库如何找到从库?
  1. --recursion-method="processlist"        发现从库的方法(processlist要求主从的端口一样)
  2. 其他方式:
  3. METHOD       USES
  4. ===========  =============================================
  5. processlist  SHOW PROCESSLIST
  6. hosts        SHOW SLAVE HOSTS
  7. cluster      SHOW STATUS LIKE 'wsrep\_incoming\_addresses'
  8. dsn=DSN      DSNs from a table
  9. none         Do not find slaves
 
 
pt-ioprofile 
当IO已经达到100%,如何排查磁盘正在干什么呢?用它来做
可以查看一个进程(默认 mysqld)正在写那些文件。
可以用 –p 指定 要跟的进程
  1. [root@likun data]# pt-ioprofile --profile-pid=2679--cell=sizes  --run-time=10
  2. WedSep1714:30:29 CST 2014
  3. Tracing process ID 2679
  4.      total       read     pwrite      write      fsync filename
  5.      65536          0      65536          0          0/mysql/data/ibdata1
  6.       1536          0       1536          0          0/mysql/data/ib_logfile1
  7.        512          0        512          0          0/mysql/data/ib_logfile0
  8.        374        187          0        187          0/mysql/data/mysql-bin.000045
  9.         95          0          0         95          0/mysql/data/likun.log
 
pt-query-digest
统计慢查询,简单用法:pt-query-digest slow.log > query.log
讲查询结果写入表中:
  1. [root@likun data]# pt-query-digest --user=lk --password=lk --review h=192.168.1.20,D=db1,t=query --history h=192.168.1.20,D=db1,t=query_history --no-report --limit=0%--filter=" \$event->{Bytes} = length(\$event->{arg}) and \$event->{hostname}=\"$HOSTNAME\""/mysql/data/likun-slow.log
  2. root@localhost 16:16:56[db1]>select*from query;
  3. +----------------------+----------------------------------------+---------------------------------------------+-------------------
  4. | checksum             | fingerprint                            | sample                                      | first_seen        
  5. +----------------------+----------------------------------------+---------------------------------------------+-------------------
  6. |  3835665160750404163|set@master_heartbeat_period=?        | SET @master_heartbeat_period=1799999979520|2014-09-1716:06:3
  7. |  4080254502890102626|select user()                          |select USER()                               |2014-09-1716:05:5
  8. |  4757751776728164035|setglobal long_query_time=?           |setglobal long_query_time=1                |2014-09-1716:06:4
  9. |  6323544616612860337|select@@long_query_time               |select@@long_query_time                    |2014-09-1716:05:5
  10. |  8071533740163008823|select count(*)from d?test where id=?|select count(*)from db1.test where id=1    |2014-09-1716:06:2
  11. |  8281087749045658124|select unix_timestamp()                | SELECT UNIX_TIMESTAMP()                     |2014-09-1716:06:3
  12. |  9067424411701554875| show variables like ?                  | SHOW VARIABLES LIKE 'SERVER_ID'             |2014-09-1716:06:3
  13. |12264768829628632244| administrator command:Quit            | administrator command:Quit                 |2014-09-1716:06:4
  14. |14719931978391102173|set names utf?                         | SET NAMES utf8                              |2014-09-1716:06:3
  15. |16403064890596278669|select@@version_comment limit ?       |select@@version_comment limit 1            |2014-09-1716:05:5
  16. |17087051866937599150| administrator command:RegisterSlave  | administrator command:RegisterSlave       |2014-09-1716:06:3
  17. +----------------------+----------------------------------------+---------------------------------------------+-------------------
  18. 11 rows inset(0.00 sec)
 
pt-duplicate-key-checker
检查重复索引
  1. [root@likun ~]#  pt-duplicate-key-checker --host=192.168.1.20--port=3306--user=lk --password=lk
  2. # ########################################################################
  3. # world.CountryLanguage                                                   
  4. # ########################################################################
  5. # CountryCode is a left-prefix of PRIMARY
  6. # Key definitions:
  7. #   KEY `CountryCode` (`CountryCode`),
  8. #   PRIMARY KEY (`CountryCode`,`Language`),
  9. # Column types:
  10. #         `countrycode` char(3) not null default ''
  11. #         `language` char(30) not null default ''
  12. # To remove this duplicate index, execute:
  13. ALTER TABLE `world`.`CountryLanguage` DROP INDEX `CountryCode`;
  14. # ########################################################################
  15. # Summary of indexes                                                      
  16. # ########################################################################
  17. # Size Duplicate Indexes   4038
  18. # Total Duplicate Indexes  1
  19. # Total Indexes            48
pt-kill
杀掉执行超时的sql
每隔5秒检查一下运行超过4s的sql,--print是查看,--kill是杀掉
[root@likun ~]# pt-kill --busy-time 4 --print --host=192.168.1.20 --user=lk --password=lk P=3306 --interval 5
# 2014-09-17T16:46:07 KILL 35 (Query 48 sec) select count(*) from yw a,yw b
# 2014-09-17T16:46:12 KILL 35 (Query 53 sec) select count(*) from yw a,yw b
 
[root@likun ~]# pt-kill --busy-time 4 --kill --host=192.168.1.20 --user=lk --password=lk P=3306 --interval 5
 
使用DSN方式,将杀掉的sql写入表kill_log中:
[root@likun ~]#  pt-kill --log-dsn=h=192.168.1.20,P=3306,D=db1,t=kill_log,u=lk,p=lk  --busy-time 4  --kill
^C
[root@likun ~]#  pt-kill --log-dsn=h=192.168.1.20,P=3306,D=db1,t=kill_log,u=lk,p=lk  --busy-time 4  --print
 
 
 
 pt-summary
 pt-mysql-summary
查看系统状态、查看mysql状态   一般用于新接手系统查看
 
 
 
 
pt-online-schema-change 
MySQL 5.5的版本在DDL方面是要付出代价的,虽然已经有了Fast index Creation,但是在添加字段还是会锁表的,而且在添加删除辅助索引是会加S锁,也就是无法进行写操作。所以,这里就有相关工具的出现,那就是pt-online-schema-change 

大概工作原理:

(1)如果存在外键,根据alter-foreign-keys-method参数的值,检测外键相关的表,针对相应的设置进行处理。

(2)创建一个新的表,表结构为修改后的数据表,用于从源数据表向新表中导入数据。

(3)创建触发器,在复制数据开始之后,将对源数据表继续进行数据修改的操作记录下来,以便在数据复制结束后执行这些操作,保证数据不会丢失。

(4)复制数据,从源数据表中复制数据到新表中。

(5)修改外键相关的子表,根据修改后的数据,修改外键关联的子表。

(6)更改源数据表为old表,把新表改为源表名,并将old表删除。

(7)删除触发器。

存在如下限制:

(1)对操作的表必须要有主键或者唯一键

(2)增加的字段如果为NOT NULL,会报错,需要添加默认值才可以成功。

 
用户需要trigger、create 、alter 等权限,系统最好autocommit=ON
  1. [root@likun ~]#  pt-online-schema-change --alter="add column addr char(20)"--user=lk --password=lk --host=192.168.1.20 D=db1,t=test2 --execute
  2. Found1 slaves:
  3.   mysql1.com
  4. Will check slave lag on:
  5.   mysql1.com
  6. Operation, tries, wait:
  7.   copy_rows,10,0.25
  8.   create_triggers,10,1
  9.   drop_triggers,10,1
  10.   swap_tables,10,1
  11.   update_foreign_keys,10,1
  12. Altering`db1`.`test2`...
  13. Creatingnew table...
  14. Creatednew table db1._test2_new OK.
  15. Alteringnew table...
  16. Altered`db1`.`_test2_new` OK.
  17. 2014-09-18T08:09:15Creating triggers...
  18. 2014-09-18T08:09:15Created triggers OK.
  19. 2014-09-18T08:09:15Copying approximately 4 rows...
  20. 2014-09-18T08:09:15Copied rows OK.
  21. 2014-09-18T08:09:15Swapping tables...
  22. 2014-09-18T08:09:15Swapped original and new tables OK.
  23. 2014-09-18T08:09:15Dropping old table...
  24. 2014-09-18T08:09:15Dropped old table `db1`.`_test2_old` OK.
  25. 2014-09-18T08:09:15Dropping triggers...
  26. 2014-09-18T08:09:15Dropped triggers OK.
  27. Successfully altered `db1`.`test2`.
 

17、percona-toolkit的更多相关文章

  1. Percona Toolkit mysql辅助利器

    1 PT介绍 Percona Toolkit简称pt工具—PT-Tools,是Percona公司开发用于管理MySQL的工具,功能包括检查主从复制的数据一致性.检查重复索引.定位IO占用高的表文件.在 ...

  2. Centos 安装Percona Toolkit工具集

    1.下载 下载地址:   https://www.percona.com/downloads/percona-toolkit/LATEST/ [root@bogon ~]# wget https:// ...

  3. RDS for MySQL 如何使用 Percona Toolkit

    Percona Toolkit 包含多种用于 MySQL 数据库管理的工具. 下面介绍常用的 pt-online-schema-change  和  pt-archiver 搭配 RDS MySQL ...

  4. Percona Toolkit工具集介绍

    部署mysql工具是一个非常重要的部分,所以工具的可靠性和很好的设计非常重要.percona toolkit是一个有30多个mysql工具的工具箱.兼容mysql,percona server,mar ...

  5. Want to archive tables? Use Percona Toolkit’s pt-archiver--转载

    原文地址:https://www.percona.com/blog/2013/08/12/want-to-archive-tables-use-pt-archiver/ Percona Toolkit ...

  6. Zabbix--05 Grafana、percona、自动发现和自动注册

    目录 一. Grafana自定义图形 1.安装grafana 2.安装并激活zabbix插件 3.数据展示 4.自定义图形仪表盘 5.自定义图形饼图 二. percona模版监控mysql 1.安装p ...

  7. Percona Toolkit工具使用

    Percona Toolkit简称pt工具-PT-Tools,是Percona公司开发用于管理MySQL的工具,功能包括检查主从复制的数据一致性.检查重复索引.定位IO占用高的表文件.在线DDL等 下 ...

  8. ABP(现代ASP.NET样板开发框架)系列之17、ABP应用层——参数有效性验证

    点这里进入ABP系列文章总目录 基于DDD的现代ASP.NET开发框架--ABP系列之17.ABP应用层——参数有效性验证 ABP是“ASP.NET Boilerplate Project (ASP. ...

  9. [安卓] 17、一个简单的例子学安卓侧滑设计——用开源slidingmenu

    效果如下: 下面是工程结构: 整个工程包括android-v7.SlidingMenu-lib和主工程SlidingMenuTest部分 其中前两个作为lib,后一个为主工程 主工程包含两个lib工程 ...

  10. 《TCP/IP详解卷1:协议》第17、18章 TCP:传输控制协议(1)-读书笔记

    章节回顾: <TCP/IP详解卷1:协议>第1章 概述-读书笔记 <TCP/IP详解卷1:协议>第2章 链路层-读书笔记 <TCP/IP详解卷1:协议>第3章 IP ...

随机推荐

  1. FineReport——函数

    1.VALUE(tableData,col,row)返回tableData中列号为col的值, 行号为row.备注:先从报表数据集中查找,然后再从服务器数据集中查找,返回的是tableData的行数. ...

  2. HEER-Easing Embedding Learning by Comprehensive Transcription of Heterogeneous Information Networks

    来源:KDD 2018 原文:HEER code:https://github.com/GentleZhu/HEER 注: 若有错误,欢迎指正   这篇KDD’18的文章,没有按照常规的方法将所有的n ...

  3. MYSQL中INET_ATON()函数

    例如我们现在要在一个表中查出 ip 在 192.168.1.3 到 192.168.1.20 之间的 ip 地址,我们首先想到的就是通过字符串的比较来获取查找结果,但是如果我们通过这种方式来查找,结果 ...

  4. 二、ansible配置简要介绍

    [defaults] # some basic default values… hostfile = /etc/ansible/hosts \\指定默认hosts配置的位置 # library_pat ...

  5. Edit Distance——经典的动态规划问题

    题目描述Edit DistanceGiven two words word1 and word2, find the minimum number of steps required to conve ...

  6. 洛谷 P2680 运输计划-二分+树上差分(边权覆盖)

    P2680 运输计划 题目背景 公元 20442044 年,人类进入了宇宙纪元. 题目描述 公元20442044 年,人类进入了宇宙纪元. L 国有 nn 个星球,还有 n-1n−1 条双向航道,每条 ...

  7. 洛谷P3216 [HNOI2011] 数学作业 [矩阵加速,数论]

    题目传送门 数学作业 题目描述 小 C 数学成绩优异,于是老师给小 C 留了一道非常难的数学作业题: 给定正整数 N和 M,要求计算 Concatenate (1 .. N)Mod M 的值,其中 C ...

  8. Windows 下使用 mingw+msys 交叉编译 Android Unity Mono

    对于没有升级到 Unity5.4的用户,发布安卓版本都会有对 C# 脚本进行加密的需求,我们项目在裸奔了很长时间后,决定开始做这件事. 网上查看了很多资料,我很希望直接在 windows 下编译而不去 ...

  9. 洛谷——P1476 休息中的小呆

    P1476 休息中的小呆 题目描述 当大家在考场中接受考验(折磨?)的时候,小呆正在悠闲(欠扁)地玩一个叫“最初梦想”的游戏.游戏描述的是一个叫pass的有志少年在不同的时空穿越对抗传说中的大魔王ch ...

  10. 提高sqlmap爆破效率

     提高sqlmap爆破效率 sqlmap在注入成功后,会尝试获取数据库和表的结构.对于MSSQL.MySQL.SQLite之类数据库,sqlmap可以通过系统数据库.系统数据表获取数据库和表的结构.但 ...