需要一个配置文件 管理输入、过滤器和输出相关的配置。配置文件内容格式如下:

  1. # 输入
  2. input {
  3. ...
  4. }
  5. # 过滤器
  6. filter {
  7. ...
  8. }
  9. # 输出
  10. output {
  11. ...
  12. }

先来看一个标准输入输出

  1.  

root@c201b7b32a32# ./logstash -e 'input { stdin{} } output { stdout{} }'
Sending Logstash's logs to /opt/logstash/logs which is now configured via log4j2.properties
[2018-04-26T06:47:20,724][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>"fb_apache", :directory=>"/opt/logstash/modules/fb_apache/configuration"}
……

[2018-04-26T06:47:24,124][INFO ][logstash.pipeline ] Pipeline started succesfully {:pipeline_id=>"main", :thread=>"#<Thread:0x5fec99f4 run>"}
The stdin plugin is now waiting for input:
[2018-04-26T06:47:24,253][INFO ][logstash.agent ] Pipelines running {:count=>1, :pipelines=>["main"]}

  1. hello ==>输入
  2. 2018-04-26T06:47:31.957Z c201b7b32a32 hello ==>输出
  3. this is test ==>输入
    2018-04-26T06:50:29.743Z c201b7b32a32 this is test  ==>输出

使用rubudebug显示详细输出,codec为一种编解码器

  1.  

# ./logstash -e 'input { stdin{} } output { stdout{ codec => rubydebug} }'

  1. test2 ==>输入
  2. {
  3. "message" => "test2",
  4. "@timestamp" => --26T07::.652Z,
  5. "@version" => "",
  6. "host" => "c201b7b32a32"
  7. } ==>使用rubydebug输出

 input输入设置

  1. input {
  2. # file为常用文件插件,插件内选项很多,可根据需求自行判断
  3. file {
  4. path => "/var/log/httpd/access_log" # 要导入的文件的位置,可以使用*,例如/var/log/nginx/*.log
  5. Excude =>”*.gz # 要排除的文件
  6. start_position => "beginning" # 从文件开始的位置开始读,默认是end
  7. ignore_older => 0 # 多久之内没修改过的文件不读取,0为无限制,单位为秒
  8. sincedb_path => "/dev/null" # 记录文件上次读取位置;输出到null表示每次都从文件首行开始解析
    add_field=>{"test"="test"} # 增加一个字段
  9. type => "apache-log" # type字段,可表明导入的日志类型
  10. }
  11. }

也可以使用多个file

  1. input {
  2. file {
  3. path => "/var/log/messages"
  4. type => "syslog"
  5. }
  1. file {
  2. path => "/var/log/apache/access.log"
  3. type => "apache"
  4. }
  5. }

也可以使用数组方式   或者用*匹配

  1. path => ["/var/log/messages","/var/log/*.log"]
  2. path => ["/data/mysql/mysql.log"]

 filter过滤设置

Logstash三个组件的第二个组件,也是真个Logstash工具中最复杂的一个组件,
当然,也是最有作用的一个组件。

1、grok插件 grok插件有非常强大的功能,他能匹配一切数据,但是他的性能和对资源的损耗同样让人诟病。

  1. filter{
  2. grok{
  3. #首先要说明的是,所有文本数据都是在Logstash的message字段中的,我们要在过滤器里操作的数据就是message。
    #只说一个match属性,他的作用是从message 字段中把时间给抠出来,并且赋值给另个一个字段logdate。
  1. #第二点需要明白的是grok插件是一个十分耗费资源的插件。
  2. #第三点需要明白的是,grok有超级多的预装正则表达式,这里是没办法完全搞定的,也许你可以从这个大神的文章中找到你需要的表达式
  3. #http://blog.csdn.net/liukuan73/article/details/52318243
  4. #但是,我还是不建议使用它,因为他完全可以用别的插件代替,当然,对于时间这个属性来说,grok是非常便利的。
  5.  
  6. match => ['message','%{TIMESTAMP_ISO8601:logdate}']
    }
    }

再看下match 另一种用法,将message中   ip、访问方法、url、数据量、持续时间   提取出来 
并赋值给 clientip、method、request、bytes、duration 字段

  1. filter {
  2. grok {
  3. match => {"message"=>"%{IPORHOST:clientip}\s+%{WORD:method}\s+%{URIPATHPARAM:request}\s+%{NUMBER:bytes}\s+%{NUMBER:duration}"}
  4. }
  5. }

显示数据

  1. {
  2. "message" => "9.9.8.6 GET /xx.hmtl 343 44",
  3. "@version" => "1",
  4. "@timestamp" => "2017-01-18T00:12:37.490Z",
  5. "path" => "/home/elk/0204/nginx.log",
  6. "host" => "db01",
  7. "type" => "nginx",
  8. "clientip" => "9.9.8.6",
  9. "method" => "GET",
  10. "request" => "/xx.hmtl",
  11. "bytes" => "343",
  12. "duration" => "44"
  13. }

继续修改,提取后删除message

  1. filter {
  2. grok {
  3. match => {"message"=>"%{IPORHOST:clientip}\s+%{WORD:method}\s+%{URIPATHPARAM:request}\s+%{NUMBER:bytes}\s+%{NUMBER:duration}"}
  4. remove_field =>["message"]
  5. }
  6. }

显示结果

  1. {
  2. "@version" => "",
  3. "@timestamp" => "2017-01-18T00:15:03.879Z",
  4. "path" => "/home/elk/0204/nginx.log",
  5. "host" => "db01",
  6. "type" => "nginx",
  7. "clientip" => "55.9.3.6",
  8. "method" => "GET",
  9. "request" => "/zz.xml",
  10. "bytes" => "",
  11. "duration" => ""
  12. }

比较常用的是 %{COMBINEDAPACHELOG}   是logstash自带的匹配模式,内置的正则,用来匹配apache access日志

  1. filter {
  2. grok {
  3. match => {
  4. "message" => "%{COMBINEDAPACHELOG}"
  5. }
  6.  
  7. remove_field => "message"
  8. }
  9. }

显示结果

  1. {
  2. "_index": "logstash-2018.05.03",
  3. "_type": "apache_logs",
  4. "_id": "VFHkI2MBPZdRHaSpwnN-",
  5. "_version": ,
  6. "_score": null,
  7. "_source": {
  8. "agent": "\"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.75 Safari/537.36 Maxthon/5.1.5.2000\"",
  9. "path": "/var/log/httpd/access_log",
  10. "referrer": "\"http://10.10.12.81/cacti/data_sources.php\"",
  11. "host": "cacti",
  12. "verb": "GET",
  13. "clientip": "10.0.7.99",
  14. "request": "/cacti/graphs.php",
  15. "auth": "-",
  16. "@version": "",
  17. "ident": "-",
  18. "httpversion": "1.1",
  19. "response": "",
  20. "bytes": "",
  21. "@timestamp": "2018-05-03T02:46:26.477Z",
  22. "timestamp": "03/May/2018:10:46:25 +0800"
  23. },
  24. "fields": {
  25. "@timestamp": [
  26. "2018-05-03T02:46:26.477Z"
  27. ]
  28. },
  29. "sort": [
  30.  
  31. ]
  32. }

其它插件暂时不讲……

 
output输入设置

输出到elasticserarch

  1. elasticsearch{
  2. hosts=>["10.10.10.11:9200"] # elasticsearch 地址 端口
  3. action=>"index" # 索引
  4. index=>"indextemplate-logstash" # 索引名称
  5. #document_type=>"%{@type}"
  6. document_id=>"ignore"
  7.  
  8. template=>"/opt/logstash-conf/es-template.json" # 模板文件的路径
  9. template_name=>"es-template.json" # 在es内部模板的名字
  10. template_overwrite=>true #
  1. protocol => "http" #目前支持三种协议 node、http 和tranaport
  1. }

写几个实例

1.配置文件

  1. input {
  2. file {
  3. path => ['/var/log/httpd/access_log']
  4. start_position => "beginning"
  5. }
  6. }
  7. filter {
  8. grok {
  9. match => {
  10. "message" => "%{COMBINEDAPACHELOG}"
  11. }
  12.  
  13. remove_field => "message"
  14. }
  15. }
  16. output {
  17. elasticsearch {
  18. hosts => ["10.10.15.95:9200"]
  19. index => "12.81-cacti-%{+YYYY.MM.dd}"
  20. action => "index"
  21. document_type => "apache_logs"
  22. }
  23. }

数据

  1. {
  2. "_index": "logstash-2018.05.03",
  3. "_type": "apache_logs",
  4. "_id": "U1HkI2MBPZdRHaSpMXPM",
  5. "_version": ,
  6. "_score": ,
  7. "_source": {
  8. "agent": ""Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.75 Safari/537.36 Maxthon/5.1.5.2000"",
  9. "path": "/var/log/httpd/access_log",
  10. "referrer": ""http://10.10.12.81/cacti/include/themes/modern/jquery-ui.css"",
  11. "host": "cacti",
  12. "verb": "GET",
  13. "clientip": "10.0.7.99",
  14. "request": "/cacti/include/themes/modern/images/ui-icons_454545_256x240.png",
  15. "auth": "-",
  16. "@version": "",
  17. "ident": "-",
  18. "httpversion": "1.1",
  19. "response": "",
  20. "bytes": "",
  21. "@timestamp": "2018-05-03T02:45:49.442Z",
  22. "timestamp": "03/May/2018:10:45:49 +0800"
  23. }
  24. }

2.一台机器上传输两种日志

  1. input {
  2. file {
  3. path => "/var/log/messages"
  4. type => "system"
  5. start_position => "beginning"
  6. }
  7. file {
  8. path => "/var/log/elasticsearch/chuck-cluster.log"
  9. type => "es-error"
  10. start_position => "beginning"
  11. }
  12. }
  13. output {
  14. if [type] == "system" {
  15. elasticsearch {
  16. hosts => ["192.168.56.11:9200"]
  17. index => "system-%{+YYYY.MM.dd}"
  18. }
  19. }
  20. if [type] == "es-error" {
  21. elasticsearch {
  22. hosts => ["192.168.56.11:9200"]
  23. index => "es-error-%{+YYYY.MM.dd}"
  24. }
  25. }
  26. }

123

logstash 配置文件语法的更多相关文章

  1. logstash配置文件

    1. 安装  logstash 安装过程很简单,直接参照官方文档: https://www.elastic.co/guide/en/logstash/current/installing-logsta ...

  2. Logstash配置文件详情

    logstash 配置文件编写详解 说明 它一个有jruby语言编写的运行在java虚拟机上的具有收集分析转发数据流功能的工具能集中处理各种类型的数据能标准化不通模式和格式的数据能快速的扩展自定义日志 ...

  3. Logstash配置文件介绍

    Logstash配置文件介绍 Logstash配置文件有两种,分别是pipeline配置文件和setting配置文件. Pipeline配置文件主要定义logstash使用的插件以及每个插件的设置,定 ...

  4. ELK 学习笔记之 Logstash基本语法

    Logstash基本语法: 处理输入的input 处理过滤的filter 处理输出的output 区域 数据类型 条件判断 字段引用 区域: Logstash中,是用{}来定义区域 区域内,可以定义插 ...

  5. java日志框架系列(4):logback框架xml配置文件语法

    1.xml配置文件语法 由于logback配置文件语法特别灵活,因此无法用DTD或schema进行定义. 1.配置文件基本结构 配置文件基本结构:以<configuration>标签开头, ...

  6. ELK日志管理之——logstash配置语法

    Logstash 设计了自己的 DSL -- 有点像 Puppet 的 DSL,或许因为都是用 Ruby 语言写的吧 -- 包括有区域,注释,数据类型(布尔值,字符串,数值,数组,哈希),条件判断,字 ...

  7. ELK之Logstash配置文件详解

    Logstash 是一个开源的数据收集引擎,它具有备实时数据传输能力.它可以统一过滤来自不同源的数据,并按照开发者的制定的规范输出到目的地.它以插件的形式来组织功能,通过配置文件来描述需要插件做什么, ...

  8. logstash配置文件详解

     logstash pipeline 包含两个必须的元素:input和output,和一个可选元素:filter. 从input读取事件源,(经过filter解析和处理之后),从output输出到目标 ...

  9. logstash 配置文件实例

    这个配置文件记不起来是从那个地方下载的来的了,感谢那位无私的朋友 input {  beats {            #shipper 端用的是 filebeat,所以用这个插件     port ...

随机推荐

  1. ntelliJ IDEA添加注释常用的快捷键

    IDEA可以使用快捷键添加行注释Ctrl+/.块注释Ctrl+Shift+/,还可以快速生成类注释.方法注释等,下面就介绍这几种快捷键的用法

  2. spdlog 基本结构分析

    spdlog 基本结构分析 代码取自 V1.5.0, 代码堪称美学. spdlog 是一个只有头文件的C++日志库,速度非常快,扩展性很强,更重要的是 社区活跃,文档齐全. 使用 参考官方的 exam ...

  3. VirtualBox扩充磁盘&清空安装包

    1.virtual box 扩充磁盘空间 D:\VirtualBox\VBoxManage.exe modifyhd "E:\virtual box\daisyyun\daisyyun.vd ...

  4. 我终于学会了使用python操作postgresql

    一 前言 这篇文章不仅适合pgsql,更适合mysql,思路都是一致的,如果读者学会使用psycopg2操作pgsql,那么使用PyMySQL 操作mysql也是很简单:本篇文章涵盖内容广泛,提供的操 ...

  5. 嵩天老师python网课爬虫实例1的问题和解决方法

    一,AttributeError: 'NoneType' object has no attribute 'children', 网页'tbody'没有子类 很明显,报错的意思是说tbody下面没有c ...

  6. 在eclipse中用java调用python报错 Exception in thread "main" ImportError: Cannot import site module and its dependencies

    最近做项目需要用java调用python,配置了jython后,运行了例子代码: 获得一个元组里面的元素: import org.python.util.PythonInterpreter; publ ...

  7. 约束路由 用正则表达式约束路由 Constraining a Route Using a Regular Expression 精通ASP-NET-MVC-5-弗瑞曼

  8. 数据结构——栈的应用 NOI2.2 括号匹配问题

    栈是一种数据结构,相当于一个容器,将一个又一个变量从顶端压进去,需要使用时,又从顶端拿出来,其具体使用方法,下面是详细讲解: #include<stack>必须使用此头文件 stack&l ...

  9. 对于kvm配置ssh

    首先我们要让自己的机器开启ssh服务 首先更新源 sudo apt-get update 安装ssh服务 sudo apt-get install openssh-server 检测是否已启动 ps ...

  10. Vue+elementUI 自定义动态数据菜单导航组件实现展开收缩+路由跳转router-view渲染数据 路由跳转到同一个页面带参数ID 自动刷新数据

    准备:导入ElementUI 看官网教程 数据准备:JSON数据转换成树状 参考文章: JS实现 JSON扁平数据转换树状数据 后台我拿的数据是这样的格式: [ {id:1 , parentId: 0 ...