python分析Mysql慢查询。通过Python调用开源分析工具pt-query-digest生成json结果,Python脚本解析json生成html报告。

  1. #!/usr/bin/env python
  2. # -*- coding: utf-8 -*-
  3. # @Time : 2018/10/12 下午3:00
  4. # @Author : Kionf
  5. # @Site : https://kionf.com
  6. # @Software: Sublime
  7. import subprocess
  8. import json
  9. import os
  10. import re
  11. import sys
  12. import time
  13. from jinja2 import Environment, FileSystemLoader
  14. # reload(sys)
  15. # sys.setdefaultencoding('utf-8')
  16. LibToolkit = 'pt-query-digest'
  17. LibToolkit_url = 'https://github.com/kalivim/Mysql-SlowLog-analysis/raw/master/pt-query-digest'
  18. HtmlTemplate = 'template.html'
  19. HtmlTemplate_url = 'https://github.com/kalivim/Mysql-SlowLog-analysis/raw/master/template.html'
  20. #检测极赖
  21. os.system('rpm -q perl-Digest-MD5 || yum -y -q install perl-Digest-MD5')
  22. class RunAndCheckCommand:
  23. def __init__(self, commands, task_name, ret_code=0):
  24. self.commands = commands
  25. self.task_name = task_name
  26. self.ret_code = ret_code
  27. def check_command_status_code(self):
  28. """
  29. 检测任务
  30. """
  31. if self.exp_code == self.ret_code:
  32. print("\033[92m [INFO]>> %s \033[0m" % self.task_name)
  33. else:
  34. print("\033[91m [ERROR]>> %s \033[0m" % self.task_name)
  35. exit(1)
  36. def exec_command_stdout_res(self):
  37. """
  38. 执行命令实时返回命令输出
  39. :return:
  40. """
  41. command_res = subprocess.Popen(self.commands, shell=True)
  42. while command_res.poll():
  43. line = command_res.stdout.readline()
  44. line.strip()
  45. if line:
  46. print(line)
  47. command_res.wait()
  48. self.exp_code = command_res.returncode
  49. self.check_command_status_code()
  50. class AnalysisMysqlSlowLog:
  51. """
  52. 分析Mysql慢查询日志输出报告。
  53. 调用第三方工具包percona-toolkit中pt-query-digest工具,默认输出slow.json文件Perl语言编写
  54. """
  55. def __init__(self, slow_log_file, json_file, report_file):
  56. """
  57. :param slow_log_file: 需要分析的慢查询日志文件
  58. :param report_file: 生成报告文件名
  59. """
  60. self.LibToolkit = LibToolkit
  61. self.json_file = json_file
  62. self.report_file = report_file
  63. self.slow_log_file = slow_log_file
  64. self.query_digest = "perl %s %s --output json --progress time,1 > %s" % (
  65. self.LibToolkit, slow_log_file, self.json_file)
  66. def check_argv_options(self):
  67. get_toolkit = os.path.isfile(HtmlTemplate)
  68. get_template = os.path.isfile(LibToolkit)
  69. get_slow_log = os.path.isfile(self.slow_log_file)
  70. if not get_toolkit:
  71. res = RunAndCheckCommand('wget %s 2>/dev/null' % LibToolkit_url, '下载pt-query-digest工具')
  72. res.exec_command_stdout_res()
  73. if not get_template:
  74. res = RunAndCheckCommand('wget %s 2>/dev/null' % HtmlTemplate_url, '下载报告HTML模板')
  75. res.exec_command_stdout_res()
  76. if not get_slow_log:
  77. print("\033[91m [ERROR]>> 指定 %s 慢查询日志不存在 \033[0m" % self.slow_log_file)
  78. exit(1)
  79. def general_html_report(self, sql_info):
  80. env = Environment(loader=FileSystemLoader(os.path.dirname(__file__)))
  81. template = env.get_template(HtmlTemplate)
  82. html_content = template.render(sql_info=sql_info)
  83. with open(self.report_file, 'wa') as f:
  84. f.write(html_content.encode('utf-8'))
  85. def general_json_slow_log_report(self):
  86. """
  87. 调用第三方工具pt-query-digest生成json报告,并获取需要信息
  88. :return: digest slow_log format to json
  89. """
  90. self.check_argv_options()
  91. RunCommandsOBJ = RunAndCheckCommand(self.query_digest, '生成Json报告')
  92. RunCommandsOBJ.exec_command_stdout_res()
  93. f = open(self.json_file, 'ra')
  94. format_dict_all_data = json.load(f)
  95. have_slow_query_tables = []
  96. all_sql_info = []
  97. all_slow_query_sql_info = format_dict_all_data['classes']
  98. global_sql_info = format_dict_all_data['global']
  99. for slow_query_sql in all_slow_query_sql_info:
  100. query_metrics = slow_query_sql['metrics']
  101. query_time = query_metrics['Query_time']
  102. query_tables = slow_query_sql['tables']
  103. for show_tables_sql in query_tables:
  104. get_table_name = show_tables_sql['create'].split('.')[1]
  105. table_name = re.match(r'`(\w*)`\\G', get_table_name).group(1)
  106. if table_name not in have_slow_query_tables:
  107. have_slow_query_tables.append(table_name)
  108. sql_info = {
  109. 'ID': slow_query_sql['checksum'],
  110. 'query_time_max': query_time['max'],
  111. 'query_time_min': query_time['min'],
  112. 'query_time_95': query_time['pct_95'],
  113. 'query_time_median': query_time['median'],
  114. 'query_row_send_95': query_metrics['Rows_sent']['pct_95'],
  115. 'query_db': query_metrics['db']['value'],
  116. 'slow_query_count': slow_query_sql['query_count'],
  117. 'slow_query_tables': have_slow_query_tables,
  118. 'sql': slow_query_sql['example']['query'],
  119. }
  120. all_sql_info.append(sql_info)
  121. all_sql_info = sorted(all_sql_info, key=lambda e: float(e['query_time_95']), reverse=True)
  122. return all_sql_info
  123. class SendReportForEmail:
  124. pass
  125. def help_msg():
  126. """
  127. 输出帮助信息
  128. """
  129. msg = """
  130. Usage:
  131. ./ slow-query-analysis.py 慢查询日志 生成json报告文件名 生成html报告文件名
  132. """
  133. print(msg)
  134. if __name__ == "__main__":
  135. if len(sys.argv) == 4:
  136. slow_log_name = sys.argv[1]
  137. json_file_name = sys.argv[2]
  138. report_name = sys.argv[3]
  139. print('\033[92m ====开始分析慢查询日志==== \033[0m')
  140. obj = AnalysisMysqlSlowLog(slow_log_file=slow_log_name, json_file=json_file_name, report_file=report_name)
  141. res_json_report = obj.general_json_slow_log_report()
  142. obj.general_html_report(res_json_report)
  143. else:
  144. help_msg()

  

0x01 脚本使用方法

wget https://raw.githubusercontent.com/kalivim/Mysql-SlowLog-analysis/master/analysis-slow-log.py
 
chmod +x analysis-slow-log.py
 
./analysis-slow-log.py Mysql_SlowLog_file general_json_filename report_name

参数介绍

Mysql_SlowLog_file mysql慢查询日志的文件名
general_json_filename 脚本生成的json报告文件名
report_name 生成的Html报告名

生成结果:


0x02 pt-query-digest工具介绍

pt-query-digestpercona工具包中的一个perl脚本,用来分析Mysql慢查询日志,或者tcpdump的Mysql的数据包。生成结果有三种格式可以选择:json,report, Mysql

常用语句:

  • 将结果和历史分析记录写入Mysql数据库(会自动创建表,需指定写入数据库)
1
./pt-query-digest --progress time,1 --review h=172.16.8.185,D=kionf_dev,t=query_review,u=root,p=passwd --history h=172.16.8.185,D=kionf_dev,t=query_history,u=root,p=passwd mysql-M-slow.log
  • 生成json报告
./pt-query-digest --progress time,1 --output json mysql-slow.log
  • 生成report
./pt-query-digest mysql-slow.log

选项介绍:

--progess time,1 显示慢查询分析进度,每1s刷新一次
--review 将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。
下次使用--review时,存在相同的语句分析,不会记录。
--history 将分析结果保存到表中,分析结果比较详细,
下次再使用--history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中
 
--output 分析结果输出类型。 json report json-anon
 
 

python 分析慢查询日志生成报告的更多相关文章

  1. 0613pt-query-digest分析慢查询日志

    转自http://www.jb51.net/article/107698.htm 这篇文章主要介绍了关于MySQL慢查询之pt-query-digest分析慢查询日志的相关资料,文中介绍的非常详细,对 ...

  2. pt-query-digest分析mysql查询日志

    [root@hank-yoon log]# pt-query-digest slowq.log # 200ms user time, 10ms system time, 24.39M rss, 205 ...

  3. MySQL之pt-query-digest分析慢查询日志的详情介绍

    一.简介 pt-query-digest是用于分析mysql慢查询的一个工具,它可以分析binlog.General log.slowlog,也可以通过SHOWPROCESSLIST或者通过tcpdu ...

  4. pt-query-digest怎么分析慢查询日志分析数据

    在进行使用linux系统作为服务器的情况,那几需要进行对linux的服务器进行性能上数据进行抓取之后,就需要对数据中内容进行分析,看数据库中内容是否存在瓶颈上的问题,在进行获取到的数据的慢查日志,将使 ...

  5. python分析apahce网站日志的例子

    有关python实现apahce网站日志分析的方法. 应用到:shell与python数据交互.数据抓取,编码转换 #coding:utf-8 #!/usr/bin/python'''程序说明:apa ...

  6. python +selenium 自带case +生成报告的模板

    https://github.com/huahuijay/python-selenium2这个就是 python +selenium的 里面还自带case 然后也有生成报告的模板 我的: https: ...

  7. Mysql系列(十一)—— 性能分析慢查询日志

    转载自:http://www.cnblogs.com/kerrycode/p/5593204.html 慢查询日志概念 MySQL的慢查询日志是MySQL提供的一种日志记录,它用来记录在MySQL中响 ...

  8. mysqldumpslow -- 分析慢查询日志

    格式:mysqldumpslow [选项] 慢查询日志路径 选项: -s   排序方式,可选值有c(记录次数).t(查询时间).l(锁定时间).r(返回记录).a(平均) -t    显示的记录数 - ...

  9. python自动化--批量执行测试之生成报告

    一.生成报告 1.先执行一个用例,并生成该用例的报告 # -*- coding: utf-8 -*- from selenium import webdriver from selenium.webd ...

随机推荐

  1. 如何编写Robot Framework测试用例2---(测试用例语法1)

    基本语法 测试用例由关键字组成,关键字的来源有三种: 1从测试库引入:2从资源文件引入:3从关键字表中引入(自定义关键字) 下面就是一个典型的测试用例组织形式. 图中有2个测试用例“Valid Log ...

  2. docker安装的gitlab的备份与恢复

    1.对docker容器安装gitlab备份 1) 查看容器id docker ps 2) 将容器备份成镜像文件 docker commit -a 'James' -m 'gitlab_backup' ...

  3. AFN请求问题

    在使用AFNetworking 2.0  的时候本来一切很顺畅,但是中途遇到几个比较坑的地方 在发送请求后,NSURLSessionDataTask一直报错 Error Domain=com.alam ...

  4. 使用telnet连接redis

    平时连接redis用的是官方客户端redis-cli, 使用redis-cli最常用的几个参数如下: -h <hostname> Server hostname (default: 127 ...

  5. BZOJ 2648 世界树

    题目传送门 分析: 喜 闻 乐 见 的虚树 但是建好虚树后的DP也非常的恶心 我们先考虑每个关键点的归哪个点管 先DFS一次计算儿子节点归属父亲 再DFS一次计算父亲节点归属儿子 然后然后我们对于虚树 ...

  6. Windows中安装Linux子系统的详细步骤

    早就听说Windows中可以安装Linux子系统,体验了一下,感觉还是不错的,下面直接开始安装和配置步骤吧! 开启Windows中的配置 首先开启开发者模式 打开"所有设置"进入& ...

  7. python3.6的安装及cx_oracle安装

    一.创建所需目录mkdir -p /home/用户名/software/python3.6.1mkdir -p /home/用户名/priv/bydmkdir -p /home/用户名/priv/by ...

  8. java内存模型梳理

    java内存模型 内存模型和内存结构区别 它们是两个概念. 内存模型是和jvm多线程相关的. 内存结构是指的jvm内存结构. 内存模型的作用 内存模型简称JMM JMM是决定一个线程对共享变量的写入时 ...

  9. pycharm2019破解

    pycharm2019 2破解教程 参考这个方法 https://www.cnblogs.com/liuyanhang/p/11088167.html

  10. Guava中强大的排序器Ordering使用

    一 创建排序器 排序器:可以用来为构建复杂的比较器,以完成集合排序的功能: 本质上来说,Ordering 实例无非就是一个特殊的Comparator 实例. Ordering把很多基于Comparat ...