pt-query-digest说明

  1. pt-query-digest 用来格式化分析MySQL产生的日志,如:慢查询日志、二进制日志、通用日志,根据不同的条件进行分析并生成报告。

pt-query-digest主要参数

  1.    --create-review-table 当使用--review参数把分析结果输出到表中时,如果没有表就自动创建。
  2. --create-history-table 当使用--history参数把分析结果输出到表中时,如果没有表就自动创建。
  3. --filter 对输入的慢查询按指定的字符串进行匹配过滤后再进行分析
  4. --limit限制输出结果百分比或数量,默认值是20,即将最慢的20条语句输出,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。
  5. --host MySQL服务器地址
  6. --user mysql用户名
  7. --password mysql用户密码
  8. --history 将分析结果保存到表中,分析结果比较详细,下次再使用--history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中,可以通过查询同一CHECKSUM来比较某类型查询的历史变化。
  9. --review 将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用--review时,如果存在相同的语句分析,就不会记录到数据表中。
  10. --output 分析结果输出类型,值可以是report(标准分析报告)、slowlog(Mysql slow log)、jsonjson-anon,一般使用report,以便于阅读。
  11. --since 从什么时间开始分析,值为字符串,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]”格式的时间点,也可以是简单的一个时间值:s(秒)、h(小时)、m(分钟)、d(天),如12h就表示从12小时前开始统计。
  12. --until 截止时间,配合—since可以分析一段时间内的慢查询。

分析类型

  1. --分析近12小时的日志
  2. pt-query-digest --since=12h EGDB---slow.log > slow_report_last_12hour.log
  3.  
  4. --分析指定时间段的日志
  5. pt-query-digest --since '2016-04-28 00:00:00' --until '2016-04-29 10:00:00' EGDB---slow.log >slow_report_btwn.log
  6.  
  7. --分析只有SELECT语句的慢查询
  8. pt-query-digest --filter '$event->{fingerprint}=~m/^select/i' EGDB---slow.log >slow_report_only_select.log
  9.  
  10. --分析某个用户的慢查询
  11. pt-query-digest --filter '($event->{user} || "") =~ m/^root/i' EGDB---slow.log >slow_report_for_user.log
  12.  
  13. --分析有全表扫描或FULL JOIN的查询
  14. pt-query-digest --filter '(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")' EGDB---slow.log>slow_report_for_full_scan_or_join.log
  15.  
  16. --将分析结果保存到query_review表中
  17. pt-query-digest --user=root --password=root --review h=172.25.21.20,D=test,t=query_review --create-review-table EGDB---slow.log
  18.  
  19. --将多个分析结果保存到query_history表中
  20. pt-query-digest --user=root --password=root --review h=172.25.21.20,D=test,t=query_history --create-review-table EGDB---slow.log
  21. pt-query-digest --user=root --password=root --review h=172.25.21.20,D=test,t=query_history --create-review-table EGDB---slow.log
  22.  
  23. parameter:
  24. D:database
  25. t:tables
  26. h:server ip or hostname
  27.  
  28. --抓取mysqltcp协议数据,然后再分析
  29. tcpdump -s -x -nn -q -tttt -i any -c port >mysql_tcp_dump.txt
  30. pt-query-digest --type tcpdump mysql_tcp_dump.txt> slow_report_for_tcpdump.log
  31.  
  32. --分析binlog
  33. mysqlbinlog mysql-bin. >mysql-bin..sql
  34. pt-query-digest --type=binlog mysql-bin..sql >binlog_report.log
  35.  
  36. --分析general log
  37. pt-query-digest --type=genlog general.log >general_report.log

Percona 工具 pt-query-digest的使用的更多相关文章

  1. mysql主从一致性校验工具-pt

    一.环境 1.系统环境 系统 IP 主机名 说明 server_id centos6.7 MasterIP master 数据库:主 177  centos6.7 SlaveIP slave 数据库: ...

  2. 每天一个percona 工具 --- pt-kill

    主要用途:pt-kill是用来kill MySQL连接的一个工具,在MySQL中因为空闲连接较多导致超过最大连接数,或某个有问题的sql导致mysql负载很高时,需要将其KILL掉来保证服务器正常运行 ...

  3. mysql全备和增量备份以及恢复过程(percona工具)

    实验环境 系统环境,内核版本和xtrabackup工具版本 [root@linux-node1 mysql]# cat /etc/redhat-release CentOS Linux release ...

  4. pt-heartbeat(percona toolkit)

    pt-heartbeat是用来监控主从延迟的一款percona工具,现在我们大部分的MySQL架构还是基于主从复制,例如MHA,MMM,keepalived等解决方案.而主从环境的话,我们很关心的就是 ...

  5. 16-MySQL DBA笔记-调优基础理论和工具

    第五部分 性能调优与架构篇 本篇将为读者介绍性能调优的一些背景知识和理论,然后介绍一些工具的运用,最后介绍从应用程序到操作系统.到数据库.到存储各个环节的优化. 性能调优是一个高度专业的领域,它需要一 ...

  6. .Net 高效开发之不可错过的实用工具

    Visual Studio Visual Studio Productivity Power tool: VS 专业版的效率工具. Web Essentials: 提高开发效率,能够有效的帮助开发人员 ...

  7. .net 高效开发实用工具

    Visual Studio Visual Studio Productivity Power tool: VS 专业版的效率工具. Web Essentials: 提高开发效率,能够有效的帮助开发人员 ...

  8. .Net程序员飞扬有用的85个工具

    1.Visual Studio Visual Studio Productivity Power tool:Visual Studio专业版(及以上)的扩展,具有丰富的功能,如快速查找,导航解决方案, ...

  9. .Net 高效开发之不可错过的实用工具(转)

    .Net 高效开发之不可错过的实用工具(转) 本文摘自: http://www.cnblogs.com/powertoolsteam/p/5240908.html#3372237 Visual Stu ...

随机推荐

  1. Java 数据结构之双向链表

    一.概述: 1.什么是双向链表: 链表中的每个节点即指向前面一个节点,也指向后面一个节点,就像丢手绢游戏一样,每个人都手拉手 2.从头部插入 要对链表进行判断,如果为空则设置尾节点为新添加的节点,如果 ...

  2. 解题报告:hdu1159 common consequence LCS裸题

    2017-09-02 17:07:42 writer:pprp 通过这个题温习了一下刚学的LCS 代码如下: /* @theme:hdu1159 @writer:pprp @begin:17:01 @ ...

  3. counting the buildings - 第一类斯特灵数

    2017-08-10 21:10:08 writer:pprp //TLE #include <iostream> #include <cstdio> #include < ...

  4. Docker 推送镜像到 阿里Docker镜像

    登录 阿里云Docker镜像 https://cr.console.aliyun.com 创建一个镜像 成功之后点击  “管理” 阿里有详细的 使用说明 PS : 注意的地方是 sudo docker ...

  5. 07_ZkClient提供的API使用

    1. ZkClient API简介 zkclient是Github上一个开源的ZooKeeper客户端,在原生ZooKeeper API接口上进行包装,同时在内部实现了session超时重连,Watc ...

  6. Centos7 安装Power Shell

    Centos7 安装Power Shell 1 查看版本 # cat /etc/redhat-release CentOS Linux release 7.5.1804 (Core) 2 安装 # R ...

  7. 关于SpringMVC中两种映射器不能共存的解决

    首先大家都知道SpringMVC有两种映射器: org.springframework.web.servlet.handler.BeanNameUrlHandlerMapping 和 org.spri ...

  8. weblogic 12c重置console密码

    su - oracle cd /u02/weblogic/user_projects/domains/base_domain source   bin/setDomainEnv.sh cd /u02/ ...

  9. 二十八 Python分布式爬虫打造搜索引擎Scrapy精讲—cookie禁用、自动限速、自定义spider的settings,对抗反爬机制

    cookie禁用 就是在Scrapy的配置文件settings.py里禁用掉cookie禁用,可以防止被通过cookie禁用识别到是爬虫,注意,只适用于不需要登录的网页,cookie禁用后是无法登录的 ...

  10. scrapy 6023 telnet查看爬虫引擎相关状态

    Telnet终端(Telnet Console) Scrapy提供了内置的telnet终端,以供检查,控制Scrapy运行的进程. telnet仅仅是一个运行在Scrapy进程中的普通python终端 ...