008_falcon磁盘io计算方法
一、falcon磁盘IO告警计算方法
(1)线上告警示例
【falcon】环境: prod 时间: 2018-11-10 22:29 共1条
【#主机磁盘io过高(appid)】主机hostname磁盘dfa io过高98.76>98%
(2)cat /proc/diskstats
252 0 dfa 2689642164 0 513826977162 100403006 6803204529 0 1348198360088 2893131263 0 934780608 3002409596
每项的具体含义如下:
1 252 主设备号 code:Major
2 0 次设备号 code:Minor
3 dfa 设备名称 code:Name
4 2689642164 <1>读完成次数{读磁盘的次数,成功完成读的总次数}[2689642164] code:ReadIOs
5 0 <2>合并读完成次数 code:ReadMerges
6 513826977162 <3>读扇区的次数,成功读过的扇区总次数 5.ReadSectors
7 100403006 <4>读花费的毫秒数;这是所有读操作所花费的毫秒数{从__make_request()到end_that_request_last()的测量} code:ReadTicks
8 6803204529 <5>写完成次数;写完成的次数,成功写完成的总次数 code:WriteIOs
9 0 <6>合并写完成次数。为了效率可能会合并相邻的读和写,从而两次4K的读在它最终被处理到磁盘上之前可能会变成一次8K的读,才被计数(和排队),因此只有一次I/O操作,这个域使你知道这样的操作有多频繁 code:WriteMerges
10 1348198360088 <7>写扇区次数;写扇区的次数,成功写扇区总次数 code:WriteSectors
11 2893131263 <8>写操作花费的毫秒数;写花费的毫秒数,这是所有写操作所花费的毫秒数{是从__make_request()到end_that_request_last()的测量} code:WriteTicks
12 0 <9>正在处理的输入/输出请求数;I/O的当前进度,只有这个域应该是0.当请求被交给适当的request_queue_t时增加和请求完成时减小 code:InFlight
13 934780608 <10>输入/输出操作花费的毫秒数;花在I/O操作上的毫秒数,只要field9不为0这个域就会增长 code:IOTicks
14 3002409596 <11>输入/输出操作花费的加权毫秒数;花在I/O操作上的毫秒数,在每次I/O开始,I/O结束,I/O合并或读取自动上次更新这个域以来(第<9>列正在进行的io数量乘以花费在io上的毫秒数)时这个域都会增加.这可以给I/O完成时间和存储那些可以累积的提供一个便利的测量标准 code:TimeInQueue
(3)告警计算公式
io_ticks{crt.IOTicks - last.IOTicks(上10s的值)}/100 > 98 会进行报警
二、实现代码
(1)
const diskStatPath = "/proc/diskstats" type DiskStatCollector struct {
lastDiskStats map[string]*linux.DiskStat
} func (c *DiskStatCollector) Collect() ([]*model.Metric, error) {
if c.lastDiskStats == nil {
c.lastDiskStats = make(map[string]*linux.DiskStat)
}
disks, err := linux.ReadDiskStats(diskStatPath)
if err != nil {
return nil, fmt.Errorf("collect disk stat: %v", err)
}
var metrics []*model.Metric
for _, crt := range disks {
if len(crt.Name) == 3 && (strings.HasPrefix(crt.Name, "sd") || strings.HasPrefix(crt.Name, "vd") || strings.HasPrefix(crt.Name, "df")) {
if last, ok := c.lastDiskStats[crt.Name]; ok {
metrics = append(metrics, diskStatDiff(&crt, last)...)
}
tmp := crt
c.lastDiskStats[crt.Name] = &tmp
}
}
return metrics, nil
} func diskStatDiff(crt *linux.DiskStat, last *linux.DiskStat) []*model.Metric {
var metrics []*model.Metric
if crt.IOTicks < last.IOTicks {
return metrics
}
metrics = append(metrics, &model.Metric{
Name: "disk.io",
Fields: []*model.Field{
{"read_ios", model.Gauge, crt.ReadIOs - last.ReadIOs},
{"read_merges", model.Gauge, crt.ReadMerges - last.ReadMerges},
{"read_sectors", model.Gauge, crt.ReadSectors - last.ReadSectors},
{"read_ticks", model.Gauge, crt.ReadTicks - last.ReadTicks},
{"write_ios", model.Gauge, crt.WriteIOs - last.WriteIOs},
{"write_merges", model.Gauge, crt.WriteMerges - last.WriteMerges},
{"write_sectors", model.Gauge, crt.WriteSectors - last.WriteSectors},
{"write_ticks", model.Gauge, crt.WriteTicks - last.WriteTicks},
{"in_flight", model.Gauge, crt.InFlight - last.InFlight},
{"io_ticks", model.Gauge, crt.IOTicks - last.IOTicks},
{"time_in_queue", model.Gauge, crt.TimeInQueue - last.TimeInQueue},
},
Tags: map[string]string{"name": crt.Name},
Timestamp: utils.Timestamp(),
})
return metrics
} (2) // ReadDiskStats reads and parses the file.
//
// Note:
// * Assumes a well formed file and will panic if it isn't.
func ReadDiskStats(path string) ([]DiskStat, error) {
data, err := ioutil.ReadFile(path)
if err != nil {
return nil, err
}
devices := strings.Split(string(data), "\n")
results := make([]DiskStat, len(devices)-1) for i := range results {
fields := strings.Fields(devices[i])
Major, _ := strconv.ParseInt(fields[0], 10, strconv.IntSize)
results[i].Major = int(Major)
Minor, _ := strconv.ParseInt(fields[1], 10, strconv.IntSize)
results[i].Minor = int(Minor)
results[i].Name = fields[2]
results[i].ReadIOs, _ = strconv.ParseUint(fields[3], 10, 64)
results[i].ReadMerges, _ = strconv.ParseUint(fields[4], 10, 64)
results[i].ReadSectors, _ = strconv.ParseUint(fields[5], 10, 64)
results[i].ReadTicks, _ = strconv.ParseUint(fields[6], 10, 64)
results[i].WriteIOs, _ = strconv.ParseUint(fields[7], 10, 64)
results[i].WriteMerges, _ = strconv.ParseUint(fields[8], 10, 64)
results[i].WriteSectors, _ = strconv.ParseUint(fields[9], 10, 64)
results[i].WriteTicks, _ = strconv.ParseUint(fields[10], 10, 64)
results[i].InFlight, _ = strconv.ParseUint(fields[11], 10, 64)
results[i].IOTicks, _ = strconv.ParseUint(fields[12], 10, 64)
results[i].TimeInQueue, _ = strconv.ParseUint(fields[13], 10, 64)
} return results, nil
}
008_falcon磁盘io计算方法的更多相关文章
- 磁盘IO
基本概念: 在数据库优化和存储规划过程中,总会提到IO的一些重要概念,在这里就详细记录一下,个人认为对这个概念的熟悉程度也决定了对数据库与存储优化的理解程度,以下这些概念并非权威文档,权威程度肯定就不 ...
- Linux下java获取CPU、内存、磁盘IO、网络带宽使用率
一.CPU 使用proc文件系统,"proc文件系统是一个伪文件系统,它只存在内存当中,而不占用外存空间.它以文件系统的方式为访问系统内核数据的操作提供接口.用户和应用程序可以通过proc得 ...
- [系统资源攻略]IO第一篇-磁盘IO,内核IO概念
几个基本的概念 在研究磁盘性能之前我们必须先了解磁盘的结构,以及工作原理.不过在这里就不再重复说明了,关系硬盘结构和工作原理的信息可以参考维基百科上面的相关词条--Hard disk drive(英文 ...
- 快速定位性能瓶颈,检查出所有资源(CPU、内存、磁盘IO等)的利用率(utilization)、饱和度(saturation)和错误(error)度量,即USE方法
命令:uptime说明:查看机器分别在1分钟.5分钟.15分钟的平均负载情况,显示的数字表示等待cpu资源的进程和阻塞在不可中断io进程的数量,如果1分钟的平均负载很高,而15分钟的平均负载很低,说明 ...
- Cacti:添加监控磁盘IO
来自:http://blog.sina.com.cn/s/blog_61c07ac50101gkzp.html 1.检查net-snmp是否支持IO监控 snmpwalk -v 1 -c public ...
- 【好书摘要】性能优化中CPU、内存、磁盘IO、网络性能的依赖
系统优化是一项复杂.繁琐.长期的工作,优化前需要监测.采集.测试.评估,优化后也需要测试.采集.评估.监测,而且是一个长期和持续的过程,不 是说现在优化了,测试了,以后就可以一劳永逸了,也不是说书本上 ...
- MySQL 调优基础(四) Linux 磁盘IO
1. IO处理过程 磁盘IO经常会成为系统的一个瓶颈,特别是对于运行数据库的系统而言.数据从磁盘读取到内存,在到CPU缓存和寄存器,然后进行处理,最后写回磁盘,中间要经过很多的过程,下图是一个以wri ...
- 降低磁盘IO使Oracle性能优化(转)
文章转自:http://blog.chinaunix.net/uid-26813519-id-3207996.html 硬件方面虽然只占Oracle性能优化的一个方面(另一方面是软件),但是仍不可忽视 ...
- 巧用linux服务器的/dev/shm/,如果合理使用,可以避开磁盘IO不给力,提高网站访问速度。
巧用linux服务器的/dev/shm/ 巧用linux服务器的/dev/shm/,如果合理使用,可以避开磁盘IO不给力,提高网站访问速度. 首先让我们认识一下,什么是tmpfs和/dev/shm/? ...
随机推荐
- 启用SQL Server 2014 中的OLE 自动化功能
企业中很多架构都在快走向Service概念,尽量采用平台服务方式提供给各个Application使用.因此,个系统都会去呼叫像是Web Service,WCF或ODATA…等等各种类型的服务.一般来说 ...
- MYSQL ERROR 1045 (28000) Access denied for user (using password YES)问题的解决
我的Linux是Centos6.7的版本,本机上Mysql突然怎么连接都进不去 报错:MYSQL ERROR 1045 (28000) Access denied for user (using pa ...
- arcgis中的geodatabase模型
简介Geodatabase是ESRI公司定义的一个为ArcGIS所用的数据框架,该框架定义了ArcGIS中用到的所有的数据类型.不管ArcGIS的数据存储到何处.以什么格式存储,都脱离不了该框架.也可 ...
- luogu P4314 CPU监控
传送门 这是个远古巨坑阿qwq 没有历史最大值还是能比较好做的.可能会有一个想法,就是直接维护线段树每个结点出现过的历史最大值,每次最大值变化就更新.但是有个问题:可能一个点能影响历史最大值的标记还没 ...
- 深入理解jQuery中的each方法
写在前面 我们先回顾一下数组中的forEach方法吧.在数组的实例上有个forEach方法供所有实例使用,forEach里面接收一个回调函数,而且回调函数默认接收三个参数:当前项,索引,数组 .for ...
- jq的load
1.用于监听加载是否完成 当指定的元素(及子元素)已加载时,会发生 load() 事件. 该事件适用于任何带有 URL 的元素(比如图像.脚本.框架.内联框架). 根据不同的浏览器(Firefox 和 ...
- 使用cross-env解决跨平台设置NODE_ENV的问题
使用方法: 安装cross-env:npm install cross-env --save-dev 在NODE_ENV=xxxxxxx前面添加cross-env就可以了.
- AOP 横行切面编程和 纵向编程 介绍
1 aop:面向切面(方面)编程,扩展功能不修改源代码实现 2 AOP采取横向抽取机制,取代了传统纵向继承体系重复性代码3 aop底层使用动态代理实现(1)第一种情况,有接口情况,使用动态代理创建接口 ...
- DeepLearning.ai-Week2-Residual Networks
1 - Import Packages import numpy as np from keras import layers from keras.layers import Input, Add, ...
- 2017-2018-2 20165221实验二《Java面向对象程序设计》实验报告
JAVA实验二报告 课程:Java程序设计 姓名:谭笑 学号:20165221 实验时间:2018.4.13--2018.4.15 实验2--1 实验内容 实现百分制成绩转成"优.良.中.及 ...