logstash split插件的使用(将一个事件拆分成多个事件)
kafka中的原始数据格式(1条数据)
{
"body": {
"cwd": "/home/test/",
"monitor": {
"proc_num": 2,
"procs": [{
"cmd": "",
"cpu_usage_rate": 2.0,
"mem_usage_rate": 3.0,
"pid": 4976,
"procname": "test-name"
}, {
"cmd": "/home/test2",
"cpu_usage_rate": 5.0,
"mem_usage_rate": 6.0,
"pid": 4977,
"procname": "test-name2"
}],
"timestamp": 1547124214814
},
"os_tag": "Linux",
"system": {
"connection": {
"haddr": "00:50:56:B3:7E:7A",
"ip": "192.168.21.80",
"name": "ens160"
},
"cpu": ["Intel Xeon", "Intel Xeon", "Intel Xeon", "Intel Xeon"],
"memory": {
"swap_total": "7918841856",
"total": "15600787456"
},
"uname": "Linux Linux 3.10.0-862.el7.x86_64 x86_64 x86_64",
"vendor": "CentOS 7.5.1804"
}
},
"meta": {
"request_id": "3-14865"
}
}
logstash处理后的数据格式(2条数据)
{
"hostname": "test",
"procs": {
"mem_usage_rate": 2.0,
"cpu_usage_rate": 3.0,
"pid": 4976,
"cmd": "",
"procname": "test-name"
},
"@timestamp": "2019-01-11T02:08:57.225Z",
"memory": {
"total": "3975188480",
"swap_total": "4177522688"
},
"connection": {
"ip": "192.168.31.182",
"name": "ens160",
"haddr": "00:50:56:B3:7E:35"
},
"proc_num": 4
}
{
"hostname": "test",
"procs": {
"mem_usage_rate": 5.0,
"cpu_usage_rate": 6.0,
"pid": 4976,
"cmd": "test",
"procname": "test-name"
},
"connection": {
"ip": "192.168.31.182",
"name": "ens160",
"haddr": "00:50:56:B3:7E:35"
},
"proc_num": 4
}
logstash的配置
input {
kafka {
bootstrap_servers=> "192.168.31.92:9092,192.168.31.93:9092,192.168.31.94:9092"
group_id => "test_group"
topics =>"test_topic"
auto_offset_reset => "earliest"
type => "test_type"
consumer_threads => 1
codec => "json"
}
}
filter{
if !([body][monitor][procs]) {
drop { }
}
mutate {
remove_field => ["body[cwd]","body[os_tag]","body[system][filesystem]","body[system][cpu]","body[system][disk]",
"body[system][has_docker]","body[system][if]","body[system][uname]","body[system][vendor]","meta","url","body[configuration]"]
}
date {
match => ["body[monitor][timestamp]","UNIX_MS"]
remove_field => ["body[monitor][timestamp]"]
}
mutate {
add_field => {
"client_id" => "%{params[client_id]}"
"system" => "%{body[system]}"
"monitor" => "%{body[monitor]}"
}
remove_field => ["body","params"]
}
json {
source => "system"
remove_field => ["system"]
}
json {
source => "monitor"
remove_field => ["monitor"]
}
if ([procs]) {
split {
field => "procs"
}
}
}
output {
elasticsearch {
hosts => ["192.168.21.80:9200"]
index => "test_index"
codec => "json"
}
}
logstash split插件的使用(将一个事件拆分成多个事件)的更多相关文章
- 【jquery】【ztree】节点添加自定义按钮、编辑和删除事件改成自己定义事件
setting添加 edit: { drag: { isCopy: false, isMove: true }, enable: true,//设置是否处于编辑状态 showRemoveBtn: sh ...
- 切割数组 - 将一个数组拆分成多个长度为n的数组
有时候接口返回的数据很长,而前端显示需要分组显示这些数据,这个时候就需要将数组拆分: datas = [1,2,3,4,5,6,7,8,9,10,11,12,13,14,15]; var arrLen ...
- oracle将一个字段拆分成多个值 (regexp_substr函数)
select regexp_substr(p.attributename, '[^,]+',1,level) c1from tablename p connect by level <= len ...
- mysql将一个表拆分成多个表(一)(转载)
转载 直接根据数据量进行拆分 有一个5000条数据的表,要把它变成没1000条数据一个表的5等份. 假设:表名:xuesi 主键:kidxuesi共有5000条数据,kid从1到5000自动增长题目: ...
- Pycharm使用技巧:Split Vertically/Horizontally(垂直/水平拆分窗口)
Split Vertically或者Split Horizontally可以把当前编辑窗口垂直或者水平拆分成两个. 使用: 在编辑窗口中打开你要展示的两个文件(如图中的 "郭靖" ...
- ElasticSearch7.3学习(三十二)----logstash三大插件(input、filter、output)及其综合示例
1. Logstash输入插件 1.1 input介绍 logstash支持很多数据源,比如说file,http,jdbc,s3等等 图片上面只是一少部分.详情见网址:https://www.elas ...
- logstash过滤器插件filter详解及实例
1.logstash过滤器插件filter 1.1.grok正则捕获 grok是一个十分强大的logstash filter插件,他可以通过正则解析任意文本,将非结构化日志数据弄成结构化和方便查询的结 ...
- [Swift]LeetCode842. 将数组拆分成斐波那契序列 | Split Array into Fibonacci Sequence
Given a string S of digits, such as S = "123456579", we can split it into a Fibonacci-like ...
- logstash常用插件解析
官方地址:https://www.elastic.co/guide/en/logstash-versioned-plugins/current/index.html 配置文件写法: # 日志导入inp ...
随机推荐
- POJ2186 Popular Cows 题解 强连通分量
题目链接:http://poj.org/problem?id=2186 题目大意: 每头牛都想成为牛群中的红人. 给定N头牛的牛群和M个有序对(A, B),(A, B)表示牛A认为牛B是红人: 该关系 ...
- 我是如何一步步裹挟老板从.net 转到 java 阵营的
我是如何一步步裹挟老板从.net 转到 java 阵营的 仅记录从 .net(C#) 转到 java 的一些心路历程 时间点跨度 2016 — 2017 一.前 xx 公司同事群的一次聊天 前公司同事 ...
- Mysql中使用mysqldump进行导入导出sql文件
纪念工作中的第一次删库跑路的经历 今天接到一个任务,是将一个测试库数据导到另一个测试库,然而我们公司的数据库是不让直连的,所以只能通过远程连接进行导库操作. 老大布置任务的时候让用dump命令进行操作 ...
- Map2Shp软件字符编码解决方案——彻底杜绝Shape格式乱码
在使用Shape文件时,如果里面有中文属性信息时,经常会遇到属性信息变为乱码.尤其是ArcGIS10.2.1之后,Esri改变了软件的默认字符编码规则,打开之前保存的Shapefile文件,总会不时遇 ...
- cogs 3. 服务点设置 dijkstra
3. 服务点设置 ★ 输入文件:djsa.in 输出文件:djsa.out 简单对比时间限制:1 s 内存限制:128 MB [问题描述] 为了进一步普及九年义务教育,政府要在某乡镇建 ...
- [工具] 利用setuptools打包python程序
一.准备工程文件 1.创建工程leeoo 2.在工程根目录下创建setup.py文件 3.在工程根目录下创建同名package 二.编辑setup.py 1.编辑setup.py文件 from set ...
- restframework 分页组件、响应器
一.分页组件 1.PageNumberPagination a.全局配置 导入模块 from rest_framework.pagination import PageNumberPagination ...
- 2.Markdown学习
Makrdown学习: 1.推荐编辑器: Typora [点击跳转](https://www.typora.io/) 2.标题: #空格一级标题名 ##空格二级标题名 3.字体: 粗体:** ** H ...
- Java单体应用 - Markdown - 03.高级技巧
原文地址:http://www.work100.net/training/monolithic-markdown-advance.html 更多教程:光束云 - 免费课程 高级技巧 序号 文内章节 视 ...
- springboot的yml不显示的原因
首先排除插件原因 1 安装好插件Ctrl+Alt+S 2 查看修改的application.yml是什么格 在yaml格式中添加*.yaml和*.yml 3 查看maven是否配置完善