ELK日志收集(SpringBoot)
环境&准备
下面所有操作都基于CentOS7
基于目前官网最新版搭建(版本号7.8)
es+kibana+logstash
官网下载安装包
如官网打不开,可从我的云盘中下载(7.8版本)
链接:https://share.weiyun.com/O10eSbOH 密码:ir72nx
安装JDK
安装方法见CentOS7安装JDK8
ES安装
Kibana安装
Logstash安装
Logstash配置
在logstash安装中,已经新建了一个my.conf,就还在这个文件上修改
input {
tcp {
#模式为serve,代表数据来源为服务端
mode => "server"
#SpringBoot logback-spring.xml中指定的ip,用于日志传输到logstash
#此处IP可指定为0.0.0.0
#host => "0.0.0.0"
host => "192.168.1.232"
#SpringBoot logback-spring.xml中指定的端口,用于日志传输到logstash
port => 4560
#格式json
codec => json_lines
}
}
output {
elasticsearch {
#这里是es的地址,多个es要写成数组的形式,例如 ["127.0.0.1:9200","127.0.0.2:9200"]
hosts => "192.168.1.232:9200"
#用于kibana过滤,可以填项目名称
#index => "mylog" #这种方式将所有数据全部输出到一个文件中,不便于后期的数据清理,不推荐
index =>"logstash-%{+yyyy.MM.dd}" #不设置默认是按照日期拆分,便于以后数据清理,推荐
}
stdout {}#接到数据后在控制台输出一份,可不加
}
保存后重启Logstash服务
SpringBoot中logback-spring.xml配置
<?xml version="1.0" encoding="UTF-8"?>
<configuration debug="false" scan="true" scanPeriod="1 seconds">
<include resource="org/springframework/boot/logging/logback/base.xml"/>
<contextName>logback</contextName>
<appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
<destination>192.168.1.232:4560</destination>
#上面这个ip就是my.conf中input配置的host、port
<encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder" />
</appender>
<root level="info">
<appender-ref ref="logstash" />
</root>
</configuration>
测试
启动 ES\Kibana\LogStash
启动SpringBoot项目
使用Idea、windows下CMD启动、扔到Linux上启动都可以,但是一定要保证一点:项目运行环境可与LogStash通信
配置Kibana
进入 http:// Kibana的IP:5601
选择Stack Management
确认上面配置的Logstash-output中index=mylog是否创建了
注意:只有SpringBoot项目启动后才会有
mylog存在,点击下面
输入"mylog"
选择如下
查看日志
- 执行项目中那个循环的输出方法
- 就可以看到收集的实时日志了
附:SpringBoot项目
ELK日志收集(SpringBoot)的更多相关文章
- SpringBoot使用ELK日志收集
本文介绍SpringBoot应用配合ELK进行日志收集. 1.有关ELK 1.1 简介 在之前写过一篇文章介绍ELK日志收集方案,感兴趣的可以去看一看,点击这里-----> <ELK日志分 ...
- springboot 集成 elk 日志收集功能
Lilishop 技术栈 官方公众号 & 开源不易,如有帮助请点Star 介绍 官网:https://pickmall.cn Lilishop 是一款Java开发,基于SpringBoot研发 ...
- FILEBEAT+ELK日志收集平台搭建流程
filebeat+elk日志收集平台搭建流程 1. 整体简介: 模式:单机 平台:Linux - centos - 7 ELK:elasticsearch.logstash.kiban ...
- ELK日志收集分析系统配置
ELK是日志收益与分析的利器. 1.elasticsearch集群搭建 略 2.logstash日志收集 我这里的实现分如下2步,中间用redis队列做缓冲,可以有效的避免es压力过大: 1.n个ag ...
- ELK日志收集平台部署
需求背景 由于公司的后台服务有三台,每当后台服务运行异常,需要看日志排查错误的时候,都必须开启3个ssh窗口进行查看,研发们觉得很不方便,于是便有了统一日志收集与查看的需求. 这里,我用ELK集群,通 ...
- ELK 日志收集系统
传统系统日志收集的问题 在传统项目中,如果在生产环境中,有多台不同的服务器集群,如果生产环境需要通过日志定位项目的Bug的话,需要在每台节点上使用传统的命令方式查询,这样效率非常底下. 通常,日志被分 ...
- Linux下单机部署ELK日志收集、分析环境
一.ELK简介 ELK是elastic 公司旗下三款产品ElasticSearch .Logstash .Kibana的首字母组合,主要用于日志收集.分析与报表展示. ELK Stack包含:Elas ...
- elk 日志收集 filebeat 集群搭建 php业务服务日志 nginx日志 json 7.12版本 ELK 解决方案
难的不是技术,难的是业务.熟悉业务流程才是最难的. 其实搜索进来的每一个人的需求不一样,希望你能从我的这篇文章里面收获到. 建议还是看官方文档,更全面一些. 一.背景 1,收集nginx acces ...
- SpringBoot使用ELK日志收集ELASTIC (ELK) STACK
1:资源 # 文档向导 # logstash https://www.elastic.co/guide/en/logstash/current/index.html #kibana https://w ...
随机推荐
- notify()和wait()
原创:转载需注明原创地址 https://www.cnblogs.com/fanerwei222/p/11398563.html notify() 和 wait() 主要是用来多个线程之间的协作. 它 ...
- List接口中特有方法
import java.util.ArrayList; import java.util.List; /* List接口中特有方法: 添加 add(int index, E element) addA ...
- 简述keepalived工作原理
1.Keepalived 定义 Keepalived 是一个基于VRRP协议来实现的LVS服务高可用方案,可以利用其来避免单点故障.一个LVS服务会有2台服务器运行Keepalived,一台为主服务器 ...
- 1Appium Desktop 的简单应用
由于Appium Desktop出来了,所以使用appium要比以前简单许多,现在根据以前的文章针对Appium Desktop做下修改更新 之前文章链接:https://testerhome.com ...
- Solution -「多校联训」最大面积
\(\mathcal{Description}\) Link. 平面上有 \(n\) 个点 \(A_{1..n}\),\(q\) 次询问,每次给出点 \(P\),求 \[\max_{1\le ...
- Filter(过滤器)与Listener(监听器)详解
11.Filter(重点) Filter:过滤器,用来过滤网站的数据: 处理中文乱码 登陆验证... Filter开发步骤: 导包 编写过滤器 导包不要错 实现Filter接口,重写对应的方法即可 p ...
- 我们一起来学Shell - shell的数组
文章目录 什么是数组 数组中常用变量 数组的定义 小括号定义数组变量 小括号加键值对定义数组变量 分别定义数组变量 动态地定义数组变量 数组赋值的切片 遍历数组 关联数组 我们一起来学Shell - ...
- Linux性能优化之磁盘I/O性能指标
讨论指标之前,得先解决两个概念:文件系统和磁盘I/O栈. 文件系统是什么?文件系统是在磁盘的基础上,提供了一个用来管理文件的树状结构.简言之,文件系统是树状结构,一种数据结构~逻辑上的概念.磁盘大家都 ...
- 云原生 PostgreSQL 集群 - PGO:来自 Crunchy Data 的 Postgres Operator
使用 PGO 在 Kubernetes 上运行 Cloud Native PostgreSQL:来自 Crunchy Data 的 Postgres Operator! Cloud Native Po ...
- for循环,stream,parallelStream的性能区别
for循环 for循环的性能随着数据量的增加性能也越来越差. 普通的循环不涉及较大的数据量,使用for循环更好. stream(串行流) stream在数据量小的情况下性能差,在数据量中.大的时候性能 ...