作者:张富春(ahfuzhang),转载时请注明作者和引用链接,谢谢!


问题最终在andy专家的帮助下解决,但是内部的原理还是很迷惑。

1.如何知道一个time series在一段时间内有多少个data point?

我用了这个笨办法来解决:

curl -G "http://11.145.xx.xx/select/0/prometheus/api/v1/query_range" --data-urlencode 'query=metric_count_rpc{metrics_name="xx"}' --data-urlencode 'timeout=10s' --data-urlencode 'start=1650440880' --data-urlencode "step=1s" --data-urlencode 'end=1650440939'
  • 开始时间:2022-04-20 15:48:00
  • 结束时间:2022-04-20 15:48:59
  • step=1s,这个很重要
  • 返回了61条数据(为什么不是60条,不明白)
  • 返回最小时间:2022-04-20 15:48:00
  • 返回最大时间:2022-04-20 15:59:09 (为什么超出了我指定的时间范围,不明白)
  • 有四种不同的值,猜测正确的data point是4条

    (数据的格式请见最后)

1.1 如何刚好指定四条数据产生的时间,能不能查出来?

curl -G "http://11.145.xx.xx/select/0/prometheus/api/v1/query_range" --data-urlencode 'query=metric_count_rpc{metrics_name="xx"}' --data-urlencode 'timeout=10s' --data-urlencode 'start=1650441500' --data-urlencode "step=1s" --data-urlencode 'end=1650441530'
  • 开始时间:2022-04-20 15:48:20
  • 结束时间:2022-04-20 15:48:50

    同样能查询出四个不同的data point值。

1.2 查询下一分钟的数据会怎么样?

curl -G "http://11.145.xx.xx/select/0/prometheus/api/v1/query_range" --data-urlencode 'query=metric_count_rpc{metrics_name="xx"}' --data-urlencode 'timeout=10s' --data-urlencode 'start=1650441540' --data-urlencode "step=1s" --data-urlencode 'end=1650441599'
  • 开始时间:2022-04-20 15:49:00
  • 结束时间:2022-04-20 15:49:59
  • 出现了上一分钟的最后一个值 (郁闷啊……为什么呢)

1.3 下一分钟,故意错开上次查询的时间范围,会怎么样?

curl -G "http://11.145.xx.xx/select/0/prometheus/api/v1/query_range" --data-urlencode 'query=metric_count_rpc{metrics_name="xx"}' --data-urlencode 'timeout=10s' --data-urlencode 'start=1650441551' --data-urlencode "step=1s" --data-urlencode 'end=1650441599'
  • 开始时间:2022-04-20 15:49:11
  • 结束时间:2022-04-20 15:49:59
  • 查询结果为空,没有出现上一分钟的值了 (我擦,既然这一分钟没有值,时间范围为什么又与上一分钟相关?)

2.如何汇总一分钟内的data point

curl -G "http://11.145.xx.xx/select/0/prometheus/api/v1/query" --data-urlencode 'query=sum_over_time(metric_count_rpc{metrics_name="xx"}[1m])' --data-urlencode 'timeout=10s' --data-urlencode 'time=1650441539'
  • 查询方式: query (instant,瞬时值)
  • 查询的时间点:2022-04-20 15:48:59
  • 汇总表达式:sum_over_time(metric_count_rpc{metrics_name="xx"}[1m])
  • 结果正好等于上面四个不同的data point汇总起来的值
  • 从行为来看,查询汇总了从time这个时间点倒数一分钟的data point

2.1 在下一分钟的开始汇总呢?

curl -G "http://11.145.xx.xx/select/0/prometheus/api/v1/query" --data-urlencode 'query=sum_over_time(metric_count_rpc{metrics_name="xx"}[1m])' --data-urlencode 'timeout=10s' --data-urlencode 'time=1650441540'
  • 查询的时间点:2022-04-20 15:49:00
  • 结果是把上一分钟的最后的三个data point汇总起来了
  • 但是上一分钟的第一个data point 在2022-04-20 15:48:20, 按照时间窗口1分钟来计算的话,结果应该与上一分钟一样才对。

总而言之,这个对齐方式好奇怪,我还没理解

附录

query_range返回的数据格式

{"status":"success","isPartial":false,"data":{"resultType":"matrix","result":[{"metric":{"__name__":"metric_count_rpc"},"values":

[[1650441480,"1485340"],  //datetime.datetime(2022, 4, 20, 15, 58)  //21条
[1650441481,"1485340"],
[1650441482,"1485340"],
[1650441483,"1485340"],
[1650441484,"1485340"],
[1650441485,"1485340"],
[1650441486,"1485340"],
[1650441487,"1485340"],
[1650441488,"1485340"],
[1650441489,"1485340"],
[1650441490,"1485340"],
[1650441491,"1485340"],
[1650441492,"1485340"],
[1650441493,"1485340"],
[1650441494,"1485340"],
[1650441495,"1485340"],
[1650441496,"1485340"],
[1650441497,"1485340"],
[1650441498,"1485340"],
[1650441499,"1485340"],
[1650441500,"1485340"], //中间为什么空了10秒?
[1650441510,"1433340"], //10条
[1650441511,"1433340"],
[1650441512,"1433340"],
[1650441513,"1433340"],
[1650441514,"1433340"],
[1650441515,"1433340"],
[1650441516,"1433340"],
[1650441517,"1433340"],
[1650441518,"1433340"],
[1650441519,"1433340"],
[1650441520,"1294595"], //10条
[1650441521,"1294595"],
[1650441522,"1294595"],
[1650441523,"1294595"],
[1650441524,"1294595"],
[1650441525,"1294595"],
[1650441526,"1294595"],
[1650441527,"1294595"],
[1650441528,"1294595"],
[1650441529,"1294595"],
[1650441530,"1254335"], //datetime.datetime(2022, 4, 20, 15, 58, 50) //20条
[1650441531,"1254335"],
[1650441532,"1254335"],
[1650441533,"1254335"],
[1650441534,"1254335"],
[1650441535,"1254335"],
[1650441536,"1254335"],
[1650441537,"1254335"],
[1650441538,"1254335"],
[1650441539,"1254335"],
[1650441540,"1254335"],
[1650441541,"1254335"],
[1650441542,"1254335"],
[1650441543,"1254335"],
[1650441544,"1254335"],
[1650441545,"1254335"],
[1650441546,"1254335"],
[1650441547,"1254335"],
[1650441548,"1254335"],
[1650441549,"1254335"]] //datetime.datetime(2022, 4, 20, 15, 59, 9) }]}}

【小测试】VictoriaMetrics中如何汇总单个time series上的多个data point?的更多相关文章

  1. PHP中使用PDO操作事务的一些小测试

    关于事务的问题,我们就不多解释了,以后在学习 MySQL 的相关内容时再深入的了解.今天我们主要是对 PDO 中操作事务的一些小测试,或许能发现一些比较好玩的内容. 在 MyISAM 上使用事务会怎么 ...

  2. 微信小程序开发教程 #043 - 在小程序开发中使用 npm

    本文介绍了如何在微信小程序开发中使用 npm 中包的功能,大大提高微信小程序的开发效率,同时也是微信小程序系列教程的视频版更新. 微信小程序在发布之初没有对 npm 的支持功能,这也是目前很多前端开发 ...

  3. 总结微信小程序开发中遇到的坑

    总结微信小程序开发中遇到的坑,一些坑你得一个一个的跳啊,/(ㄒoㄒ)/~~ 1,页面跳转和参数传递实例 首先说一下我遇到的需求有一个我的消息页面,里面的数据都是后端返回的,返回的数据大致如下,有一个是 ...

  4. 测试开发中Django和Flask框架

    Python测试开发中Django和Flask框架 为了更好地阐述这个问题,我们把开发一个应用的过程进行类比,往往开发一个应用(web应用.系统应用)跟建造房子的过程一样,需要先打地基,搭好骨架,然后 ...

  5. 一文揭秘测试平台中是如何将测试用例一键转化Jmeter压测脚本

    ​    ​接上篇,一键转化将接口测试平台测试用例转化成Jmeter压测脚本思路,这里我首先在java 上面做了一个简单的实验,看看 转化的中间遇到的问题,这里呢,我只是给了一个简单的demo 版本, ...

  6. selenium 测试框架中使用grid

    之前的测试框架:http://www.cnblogs.com/tobecrazy/p/4553444.html 配合Jenkins可持续集成:http://www.cnblogs.com/tobecr ...

  7. 微信小程序(应用号)资源汇总整理

    微信小应用资源汇总整理 开源项目 WeApp - 微信小程序版的微信 wechat-weapp-redux-todos - 微信小程序集成Redux实现的Todo list wechat-weapp- ...

  8. Cad 二次开发关于SelectCrossingPolygon和SelectFence返回结果Status为error的小测试

    CAD2008的二次开发,有个很奇怪的现象,只要你选择的点集不在当前视图上SelectCrossingPolygon和SelectFence返回结果Status就会为error,所以要获取正确的结果, ...

  9. LoadRunner测试场景中添加负载生成器

    如何在LoadRunner测试场景中添加负载生成器 本文对如何在LoadRunner的测试场景中添加负载生成器,如何使用负载生成器的方法,总结形成操作指导手册,以指导测试人员指导开展相关工作. 1.什 ...

  10. ArcGIS中如何导出单个矢量要素图形

    原文:ArcGIS中如何导出单个矢量要素图形 在ARCGIS中载入了一张含有省界的中国地图,是SHP文件.现在我只想要其中一块地区的,实现方法如下: 加入到ArcGIS后,右击图层,打开属性表(att ...

随机推荐

  1. 再谈P2P技术:网络拓扑结构、核心技术分析

    随着P2P应用的蓬勃发展,作为P2P应用中核心问题的发现技术除了遵循技术本身的逻辑以外,也受到某些技术的发展趋势.需求趋势的深刻影响. P2P协议概述 P2P打破了传统的Client/Server ( ...

  2. iOS加固保护新思路

    ​ 技术简介 前言 iOS加固保护是基于虚机源码保护技术,针对iOS平台推出的下一代加固产品.可以对iOS APP中的可执行文件进行深度混淆.加固,并使用独创的虚拟机技术对代 码进行加密保护,使用任何 ...

  3. ByteHouse:基于ClickHouse的实时数仓能力升级解读

     更多技术交流.求职机会,欢迎关注字节跳动数据平台微信公众号,回复[1]进入官方交流群   ByteHouse是火山引擎上的一款云原生数据仓库,为用户带来极速分析体验,能够支撑实时数据分析和海量数据离 ...

  4. JAVA SQLServerException: 通过端口 1433 连接到主机 127.0.0.1 的 TCP/IP 连接失败

    [2021-01-15 13:20:14.623] ERROR [Druid-ConnectionPool-Create-497208183] DruidDataSource.java:2471 - ...

  5. 0x41 数据结构进阶-并查集

    A题 程序自动分析 题目链接:https://ac.nowcoder.com/acm/contest/1031/A 题目描述 在实现程序自动分析的过程中,常常需要判定一些约束条件是否能被同时满足. 考 ...

  6. 深度学习基础课:“判断性别”Demo需求分析和初步设计(上)

    大家好~我开设了"深度学习基础班"的线上课程,带领同学从0开始学习全连接和卷积神经网络,进行数学推导,并且实现可以运行的Demo程序 线上课程资料: 本节课录像回放 扫码加QQ群, ...

  7. 【vue基础篇】一看就懂的vue环境变量配置

    相关播客地址: https://juejin.cn/post/6844903859878363149 https://juejin.cn/post/6844903682178285575 视频学习资料 ...

  8. freeswitch通过limit限制cps

    概述 freeswitch在业务开发中有极大的便利性,因为fs内部实现了很多小功能,这些小功能组合在一起,通过拨号计划就可以实现很多常见的业务功能. 在voip云平台的开发中,我们经常会碰到资源的限制 ...

  9. freeswitch APR库内存池

    概述 freeswitch的核心源代码是基于apr库开发的,在不同的系统上有很好的移植性. apr库中的大部分API都需要依赖于内存池,使用内存池简化内存管理,提高内存分配效率,减少内存操作中出错的概 ...

  10. BTC-实现

    BTC-实现 Transaction-based ledger(比特币是基于交易的账本模式) Account-based ledger(以太坊是基于账户的账本模式) UTXO Unspent Tran ...