pt-query-digest是用于分析mysql慢查询的一个工具,它可以分析binlog、General log、slowlog,也可以通过SHOW PROCESSLIST或者通过tcpdump抓取的MySQL协议数据来进行分析.
下载:
pt-query-digest是一个perl脚本,只需下载并赋权即可执行。
wget percona.com/get/pt-query-digest
chmod u+x pt-query-digest
使用参数:
--create-review-table 当使用--review参数把分析结果输出到表中时,如果没有表就自动创建。
--create-history-table 当使用--history参数把分析结果输出到表中时,如果没有表就自动创建。
--filter 对输入的慢查询按指定的字符串进行匹配过滤后再进行分析。
--limit 限制输出结果百分比或数量,默认值是20,即将最慢的20条语句输出,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。
--host mysql服务器地址
--user mysql用户名
--password mysql用户密码
--history 将分析结果保存到表中,分析结果比较详细,下次再使用--history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中.
--review 将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用--review时,如果存在相同的语句分析,就不会记录到数据表中。
--output 分析结果输出类型,值可以是report(标准分析报告)、slowlog(Mysql slow log)、json、json-anon,一般使用report,以便于阅读。
--since 从什么时间开始分析,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]”格式的时间点,也可以是简单的一个时间值:s(秒)、h(小时)、m(分钟)、d(天),如12h就表示从12小时前开始统计。
--until 截止时间,配合—since可以分析一段时间内的慢查询。
用法:
直接分析慢查询文件:
pt-query-digest slow.log > slow20170803.log
分析最近1小时内的查询:
pt-query-digest --since=1h slow.log > 1slow.log
分析指定时间范围内的查询:
pt-query-digest slow.log --since '2017-08-03 15:30:00' --until '2017-08-04 10:30:00' > slow83-84.log
分析指含有select语句的慢查询:
pt-query-digest --filter '$event->{fingerprint} =~ m/^select/i' slow.log > slow4.log
针对某个用户的慢查询:
pt-query-digest --filter '($event->{user} || "") =~ m/^admin/i' slow.log > slow5.log
查询所有所有的全表扫描或full join的慢查询:
pt-query-digest --filter '(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")' slow.log> slow6.log
把查询保存到query_review表:
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_review --create-review-table slow.log
把查询保存到query_history表:
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_ history --create-review-table slow.log
通过tcpdump抓取mysql的tcp协议数据,然后再分析:
tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txt
pt-query-digest --type tcpdump mysql.tcp.txt> slow_report9.log
分析binlog:
mysqlbinlog mysql-bin.000001 > mysql-bin000001.sql
pt-query-digest --type=binlog mysql-bin000001.sql > slow10.log
分析general log:
pt-query-digest --type=genlog localhost.log > slow11.log
总体统计结果:
# 3.5s user time, 60ms system time, 28.96M rss, 209.24M vsz 该工具执行日志分析的用户时间,系统时间,物理内存占用大小,虚拟内存占用大小
# Current date: Thu Aug 3 16:24:12 2017 工具执行时间
# Hostname: Test_Server1 运行分析工具的主机名
# Files: slow.log 被分析的文件名
# Overall: 2.92k total, 190 unique, 0.81 QPS, 44.91x concurrency _________
total:语句总数量
unique:唯一的语句数量:唯一查询数量,即对查询条件进行参数化以后,总共有多少个不同的查询,
QPS
并发数
# Time range: 2017-08-03 15:24:14 to 16:24:11 日志记录的时间范围
# Attribute total min max avg 95% stddev median
属性 总计 最小 最大 平均 95% 标准 中等
# ============ ======= ======= ======= ======= ======= ======= =======
# Exec time 161525s 10s 485s 55s 151s 53s 35s 语句执行时间
# Lock time 1115s 17us 121s 382ms 1ms 6s 247us 锁占用时间
# Rows sent 51.71k 0 23.25k 18.13 0.99 602.10 0 发送到客户端的行数
# Rows examine 2.96G 0 51.26M 1.04M 4.93M 4.87M 0 select语句扫描行数
# Rows affecte 19.70M 0 1.64M 6.91k 0 105.18k 0
# Bytes sent 4.15M 0 1.50M 1.46k 1.78k 39.02k 72.65
# Query size 1.62M 15 5.17k 582.83 3.19k 872.43 202.40 查询的字符数
95%:把所有值从小到大排列,位置位于95%的那个数,这个数一般最具有参考价值。
median:中位数,把所有值从小到大排列,位置位于中间那个数。
查询分组统计结果:
# Profile
# Rank Query ID Response time Calls R/Call V/M Item
Rank:所有语句的排名,默认按查询时间降序排列,通过--order-by指定
Query ID:语句的ID,(去掉多余空格和文本字符,计算hash值)
Response time:响应时间,占所有响应时间的百分比
Calls:查询执行次数
R/Call:平均响应时间
V/M:响应时间Variance-to-mean的比率
Item:查询语句一部分
# ==== ================== ================ ===== ======== ===== ==========
# 1 0xF2F12348E0AAA2EE 9505.5255 5.9% 152 62.5364 46.28 SELECT s?.T? flb.t_user_icon S?.T? s?.T?
# 2 0x6CBF4855F6B63A3F 9432.3847 5.8% 46 205.0518 84.11 SELECT UNION S?.T?
# 3 0xD5EB4DCA5163EAF0 8125.6776 5.0% 150 54.1712 36.01 SELECT s?.t?
# 4 0xED7158FAD1CD1ADC 7723.8205 4.8% 162 47.6779 32.82 SELECT UNION s?.t? flb.t_user_plan
# 5 0xB3C258C1D1E1E94F 7443.5447 4.6% 136 54.7319 30.79 UPDATE flb.t_invest_plan
...
每一种查询的详细统计结果:
# Query 1: 0.11 QPS, 7.19x concurrency, ID 0xF2F12348E0AAA2EE at byte 6125794
# This item is included in the report because it matches --limit.
# Scores: V/M = 46.28
# Time range: 2017-08-03 16:00:25 to 16:22:27
# Attribute pct total min max avg 95% stddev median
# ============ === ======= ======= ======= ======= ======= ======= =======
# Count 5 152
# Exec time 5 9506s 10s 325s 63s 175s 54s 47s
# Lock time 0 79ms 222us 1ms 521us 761us 128us 490us
# Rows sent 0 47 0 1 0.31 0.99 0.46 0
# Rows examine 0 250.78k 0 5.83k 1.65k 5.73k 2.58k 0
# Rows affecte 0 0 0 0 0 0 0 0
# Bytes sent 1 81.30k 44 1.52k 547.70 1.39k 639.84 42.48
# Query size 11 183.13k 1.20k 1.21k 1.20k 1.20k 6.50 1.20k
# String:
# Databases S62 (50/32%), s50 (33/21%), flb (26/17%)... 6 more 库名
# Hosts
# Users develop 各个用户执行的次数(占比)
# Query_time distribution 查询时间分布, 长短体现区间占比,本例中1s-10s之间查询数量是10s以上的两倍。
# 1us
# 10us
# 100us
# 1ms
# 10ms
# 100ms
# 1s
# 10s+ ################################################################
# Tables 查询中涉及到的表
# SHOW TABLE STATUS FROM `s61` LIKE 'T6110'\G
# SHOW CREATE TABLE `s61`.`T6110`\G
# SHOW TABLE STATUS FROM `flb` LIKE 't_user_icon'\G
# SHOW CREATE TABLE `flb`.`t_user_icon`\G
# SHOW TABLE STATUS FROM `S61` LIKE 'T6101'\G
# SHOW CREATE TABLE `S61`.`T6101`\G
# SHOW TABLE STATUS FROM `S61` LIKE 'T6118'\G
# SHOW CREATE TABLE `S61`.`T6118`\G
# SHOW TABLE STATUS FROM `S61` LIKE 'T6114'\G
# SHOW CREATE TABLE `S61`.`T6114`\G
# SHOW TABLE STATUS FROM `s50` LIKE 'T5020'\G
# SHOW CREATE TABLE `s50`.`T5020`\G
# SHOW TABLE STATUS FROM `s61` LIKE 'T6141'\G
# SHOW CREATE TABLE `s61`.`T6141`\G
# EXPLAIN /*!50100 PARTITIONS*/ 示例
SELECT
...
- 常用 Java 静态代码分析工具的分析与比较
常用 Java 静态代码分析工具的分析与比较 简介: 本文首先介绍了静态代码分析的基 本概念及主要技术,随后分别介绍了现有 4 种主流 Java 静态代码分析工具 (Checkstyle,FindBu ...
- Android内存优化之——static使用篇(使用MAT工具进行分析)
这篇文章主要配套与Android内存优化之——static使用篇向大家介绍MAT工具的使用,我们分析的内存泄漏程序是上一篇文章中static的使用内存泄漏的比较不容易发现泄漏的第二情况和第三种情况—— ...
- 分享两个网址,一个是使用mssql自带的跟踪工具和分析工具
http://www.cnblogs.com/Fooo/archive/2013/02/19/2916789.html 使用mssql自带的跟踪工具和分析工具 http://blog.csdn.net ...
- [转载] 常用 Java 静态代码分析工具的分析与比较
转载自http://www.oschina.net/question/129540_23043 简介: 本文首先介绍了静态代码分析的基本概念及主要技术,随后分别介绍了现有 4 种主流 Java 静态代 ...
- 【转载】常用 Java 静态代码分析工具的分析与比较
摘自:http://www.oschina.net/question/129540_23043常用 Java 静态代码分析工具的分析与比较 简介: 本文首先介绍了静态代码分析的基本概念及主要技术,随后 ...
- 常用Java静态代码分析工具的分析与比较
给国产静态代码检测工具Pinpoint打Call! 简介 本文首先介绍了静态代码分析的基本概念及主要技术,随后分别介绍了4种现有的主流Java静态代码分析工具 (Checkstyle,FindBugs ...
- dns隧道攻击原理及常用工具流量分析
DNS协议是一种请求应答协议,也是一种可用于应用层的隧道技术.虽然DNS流量的异常变化可能会被发现,但是在基于传统socket隧道已经濒临淘汰,TCP.UDP通信大量被安全设备拦截的大背景下,DNS. ...
- 16S 基础知识、分析工具和分析流程详解
工作中有个真理:如果你连自己所做的工作的来龙去脉都讲不清楚,那你是绝对不可能把这份工作做好的. 这适用于任何行业.如果你支支吾吾,讲不清楚,那么说难听点,你在混日子,没有静下心来工作. 检验标准:随时 ...
- 使用Chrome工具来分析页面的绘制状态
Chrome Canary(Chrome “金丝雀版本”)目前已经支持Continuous painting mode,用于分析页面性能.这篇文章将会介绍怎么才能页面在绘制过程中找到问题和怎么利用这个 ...
- Java中json工具对比分析
Java中几个json工具分析 1, 环境 JDK1.6+IDE(IntelliJ IDEA)+windowsXP+GBK编码 2,分析对象 jackson1.8.2 http://jackson.c ...
随机推荐
- CSV文件乱码处理方法
如果csv出现乱码, 直接用记事本打开另存为的格式从utf-8变为ANSI模式即可. 然后再打开
- raid 0 与raid 1的区别?
区别共有三点: 1.两者的概念不同: RAID 0:是多磁盘数据分组同步写读. RAID 1:是多磁盘同数据同步写读. 2.两者的安全性不同: RAID 0:无数据备份功能,安全性差. RAID 1: ...
- 配置全局路由表和VRF路由表之间的路由泄漏
1.拓扑图 2.R1配置 R1#sho run Building configuration... Current configuration : 1360 bytes ! upgrade fpd a ...
- git log 的常用用法
1.最基本的 git log 2.简化版本 git log --oneline 3. 作者筛选 4.时间筛选 git log --since="2022.05.26" --unti ...
- jjupyter notebook 修改存储位置和修改默认浏览器
先jupyter notebook --generate-config 找到配置文件位置 打开这里的哪个文件 然后修改即可 1.修改默认打开目录找到 #c.NotebookApp.notebook_d ...
- 220327_IDEA调试debug时step into看不了方法内部的解决办法
220327_问题解决_IDEA Debug时stepinto无法进入方法内部的解决方法 File Settings Build,Execution,Deployment Debugger Stepp ...
- Typora+PicGo+GitHub
图片可以成功上传github,但是picgo相册无法预览,typora里也加载不出 image load failed 方法: 在`C:\Windows\System32\drivers\etc\ho ...
- python打开Excel中指定的sheet表
一个Excel中有多个sheet的时候,你在第几个sheet保存关闭的,那下次打开就在原来的那个表的位置,所以有时候你想--在打开一个Excel的时候指定到其中的一个sheet表,那么使用第三方库xl ...
- [jQuery]z-index属性大于0的元素使用fadeIn无法正常过渡的问题
rt 问题记录. 尝试使用$(' ').animate({ opacity: 1 }) 会出现相同的问题. 可能是opacity动画与z-index无法兼容(?) 最后的处理方式是改变元素渲染顺 ...
- from pathlib import Path
from pathlib import Path #引入库 P.parent #获取父级目录 P.exists() #判断当前路径是否存在 P.mkdir(parents=Fasle) # 根据路径创 ...