爬虫日志监控 -- Elastc Stack(ELK)部署
傻瓜式部署,只需替换IP与用户
导读:
现ELK四大组件分别为:Elasticsearch(核心)、logstash(处理)、filebeat(采集)、kibana(可视化)
在elastic官网下载组件tar包,各组件版本最好一致,配合fdm会快一点点
注意:如若后续用到sentinl(开源监控警报插件,可webhook接钉钉等),ELK的组件版本应选择与sentinl版本一致,
sentinl版本比ELK组件更新慢
我的杯具:Plugin sentinl [7.6.1] is incompatible with Kibana [7.9.0]
环境
- linux mint19
- 自带open jdk 11 ( 不能低于1.8 )
配置
主目录创建itcast,然后分配权限,本机使用user0
chown -R user0:user0 /itcast
本机配置:解压包tar -xzvf /itcast/*.tar.gz /itcast/
、修改以下配置文件
(注意:1、解压目录换成自己的版本,下略;2、缩进距离以默认文件为主)
elasticsearch相关:
/itcast/(elasticsearch解压目录)/config/elasticsearch.yml
# 集群名称,默认是elasticsearch
cluster.name: my-application
# 节点名称
node.name:node-1
# 配置IP端口
network.host:0.0.0.0
http.port: 9200
# 可以指定es的数据存储目录,默认存储在es_home/data目录下
# path.data: /path/to/data
# 可以指定es的日志存储目录,默认存储在es_home/logs目录下
# path.logs: /path/to/logs
# 子集群节点,用的上述节点设置的名称
discovery.seed_hosts:[node-1]
# !!通过配置这个参数来防止集群脑裂现象 (集群总节点数量/2)+1
discovery.zen.minimum_master_nodes= ( master候选节点数量/2+1 )
# 处理跨域的相关参数
http.cors.enabled: true
http.cors.allow-origin: "*"
http.cors.allow-methods: OPTIONS, HEAD, GET, POST, PUT, DELETE
http.cors.allow-headers: "X-Reqested-With, Content-Type, Content-Length, X-User"
kibana相关:
/itcast/(kibana解压目录)/config/kibana.yml
server.port: 5601
server.host: "0.0.0.0"
elasticsearch.hosts: ["http://192.168.199.224:9200"]
kibana.index: ".kibana"
# 自定义安全参数
xpack.encryptedSavedObjects.encryptionKey:encryptedSavedObjects12345678909876543210123
xpack.security.encryptionKey: encryptionKeysecurity12345678909876543210123
xpack.reporting.encryptionKey: encryptionKeyreporting12345678909876543210123
elasticsearch.requestTimeout: 90000
i18n.locale: "zh-CN"
logstash相关:
/itcast/(logstash解压目录)/config/logstash-sample.conf
input {
beats {
port => 5044
}
}
filter {
# 重要功能,对日志处理均在此步,按需自行搜索
mutate {
split => {"message" => "|"}
}
mutate {
add_field => {
"Date" => "%{[message][0]}"
# 坑点!!!新版本中%{}里字段如message需要加上中括号[]作为识别
"Level" => "%{[message][1]}"
"result" => "%{[message][2]}"
}
}
mutate {
convert => {
"Date" => "string"
"Leverl" => "string"
"result" => "string"
}
}
}
output {
elasticsearch {
hosts => ["http://192.168.199.224:9200"]
index => "logstash-%{+YYYY.MM.dd}"
}
}
filebeat相关:( 实际中 filebeat 部署在业务运行的主机上 )
/itcast/(filebeat解压目录)/filebeat.yml
filebeat.inputs:
- type: log
enabled: true
paths:
#目标文件,自行匹配
- /var/log/*.log
#- /itcast/elasticsearch/logs/*
tags: ["spider"]
#不需要logstash处理可直接传ela本身
#output.elasticsearch:
# hosts: ["192.168.199.224:9200"]
out.logstash:
hosts: ["192.168.199.224:5044"]
filebeat.config.modules:
path: ${path.config}/modules.d/*.yml
reload.enabled: false
setup.template.settings:
index.number_of_shards: 1
setup.kibana:
host: "192.168.199.224:5601"
其他
logstash插件sentinl安装(按需)
(kibana目录)/bin/kibana-plugin install file:~/sentinl-v7.6.1.zip # zip包自行github下载
运行
用 ufw 开启有关端口:es、kibana、logstash ( 执行业务的 filebeat连到logstash端口 )
sudo ufw allow 9200
sudo ufw allow 5601
sudo ufw allow 5044
sudo ufw enable
/etc/security/limits.conf 尾部加上字段
* soft nproc 65536
* hard nproc 65536
* soft nofile 65536
* hard nofile 65536
切换到用户,执行命令如下,
su - user0
ulimit -n
# 返回65536即设置成功,保持user0状态开启elasticsearch服务
/itcast/(elasticsearch解压目录)/bin/elasticsearch
运行另外的组件( 实际 filebeat 在业务运行的主机上运行)
/itcast/(kibana解压目录)/bin/kibana
/itcast/(logstash解压目录)/bin/logstash -f ./config/logstash-sample.conf
/itcast/(filebeat解压目录)/filebeat -e -c filebeat.yml
测试
新建控制台,cd至 filebeat 监控日志目录,此处为 /var/log
- 执行以下命令数次
echo "2020-09-01 | DEBUG | create a logmsg demo" >> demo.log
- 打开kibana(此处为192.168.199.224:5601)
- 菜单打开Stack Management( 管理中心 )
- kibana索引模式创建索引( logstash 的配置输出中 index => "logstash-%{+YYYY.MM.dd}" ),此处输入 logstash-* 即可
- 菜单打开 discover,创建新条目,选择上一步的索引,调整时间段即可返回相关数据
- 菜单打开日志,选择索引 logstash-* 亦可返回流式数据
kibana简易食用方法:
- 创建索引 (视为数据源,操作的根本)
- 创建表格( discover )
- 创建可视化(Visualize 饼图,柱形图等……)
- 创建仪表盘(dashboard 把可视化组合起来)
持续更新,权当记录
- logstash插件multiline,用于报错而产生的多行时能匹配成一条日志数据( 默认多少行=多少条数据)
./bin/logstash-plugin install logstash-filter-multiline # logstash安装插件
logstash-simple.conf中的filter里加入
multiline {
pattern => "^\d{4}-\d{1,2}-\d{1,2}\s\d{1,2}:\d{1,2}:\d{1,2}"
negate => true
what => "previous"
}
# multiline {
# charset=>... #可选 字符编码
# max_bytes=>... #可选 bytes类型 设置最大的字节数
# max_lines=>... #可选 number类型 设置最大的行数,默认是500行
# multiline_tag... #可选 string类型 设置一个事件标签,默认是multiline
# pattern=>... #必选 string类型 设置匹配的正则表达式
# patterns_dir=>... #可选 array类型 可以设置多个正则表达式
# negate=>... #可选 boolean类型 默认false不显示,可设置ture
# what=>... #必选 向前previous , 向后 next
#
# }
爬虫日志监控 -- Elastc Stack(ELK)部署的更多相关文章
- ELK日志监控平台安装部署简介--Elasticsearch安装部署
最近由于工作需要,需要搭建一个ELK日志监控平台,本次采用Filebeat(采集数据)+Elasticsearch(建立索引)+Kibana(展示)架构,实现日志搜索展示功能. 一.安装环境描述: 1 ...
- 分布式实时日志分析解决方案ELK部署架构
一.概述 ELK 已经成为目前最流行的集中式日志解决方案,它主要是由Beats.Logstash.Elasticsearch.Kibana等组件组成,来共同完成实时日志的收集,存储,展示等一站式的解决 ...
- 运维开发实践——基于Sentry搭建错误日志监控系统
错误日志监控也可称为业务逻辑监控, 旨在对业务系统运行过程中产生的错误日志进行收集归纳和监控告警.似乎有那么点曾相识?没错... 就是提到的“APM应用性能监控”.但它又与APM不同,APM系统主要注 ...
- Hadoop生态圈-flume日志收集工具完全分布式部署
Hadoop生态圈-flume日志收集工具完全分布式部署 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 目前为止,Hadoop的一个主流应用就是对于大规模web日志的分析和处理 ...
- ElasticSearch实战-日志监控平台
1.概述 在项目业务倍增的情况下,查询效率受到影响,这里我们经过讨论,引进了分布式搜索套件——ElasticSearch,通过分布式搜索来解决当下业务上存在的问题.下面给大家列出今天分析的目录: El ...
- 企业日志大数据分析系统ELK+KAFKA实现【转】
背景: 最近线上上了ELK,但是只用了一台Redis在中间作为消息队列,以减轻前端es集群的压力,Redis的集群解决方案暂时没有接触过,并且Redis作为消息队列并不是它的强项:所以最近将Redis ...
- 微服务日志监控与查询logstash + kafka + elasticsearch
使用 logstash + kafka + elasticsearch 实现日志监控 https://blog.csdn.net/github_39939645/article/details/788 ...
- Sentry错误日志监控你会用了吗?
无论作为新手还是老手程序员在程序的开发过程中,代码运行时难免会抛出异常,而且项目在部署到测试.生产环境后,我们便不可能像在开发时那样容易的及时发现处理错误了.一般我们都是在错误发生一段时间后,错误信息 ...
- Sentry 监控 - 私有 Docker Compose 部署与故障排除详解
内容整理自官方开发文档 系列 1 分钟快速使用 Docker 上手最新版 Sentry-CLI - 创建版本 快速使用 Docker 上手 Sentry-CLI - 30 秒上手 Source Map ...
随机推荐
- NeuroAttack: Undermining Spiking Neural Networks Security through Externally Triggered Bit-Flips
郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! arXiv:2005.08041v1 [cs.CR] 16 May 2020 Abstract 由于机器学习系统被证明是有效的,因此它被广 ...
- 力扣leetcode 435. 无重叠区间 - 贪心
非常经典的区间贪心思想 -- 详见博文: 贪心思想之区间贪心 本题给定一个区间的集合,找到需要移除区间的最小数量,使剩余区间互不重叠. 注意: 可以认为区间的终点总是大于它的起点. 区间 [1,2] ...
- JS 替换日期的横杠为斜杠
例如1: <script type="text/javascript"> var dt = "2010-01-05"; ...
- 记一些Python(Pymysql)建表、增删改查等基础操作(小白适用)
1.读取sql文件创建数据表 有一个形如下图的sql文件,使用python读取文件并在数据库中创建所有的表. 很多人学习python,不知道从何学起.很多人学习python,掌握了基本语法过后,不知道 ...
- playable
探索TimelinePlayableAPI,让Timeline为所欲为 https://blog.csdn.net/qq826364410/article/details/80534892 Playa ...
- Unity 内嵌网页
uniwebview 官网 http://uniwebview.onevcat.com/reference/class_uni_web_view.html http://uniwebview.onev ...
- 【C#】Random类中构造方法、时间种子与随机数序列的关系
Random类 构造函数 1) Random random = new Random(); // 无参数构造函数使用系统时钟生成其种子值 然而,系统时钟取值范围有限,因此在小规模计算中,可能无法使用不 ...
- Web测试经典bug、安全性测试
典型BUG 表格的排序.翻页.添加.删除的联合测试 输入框的长度检查 数据库表中如果指定utf8长度为150,则可以输入150个中文或英文字母等 (有时候界面判断失误,却只能输入50个汉字) 数据添加 ...
- RabbitMQ 3.8.7 在 centos7 上安装
1.安装 erlang 因为 RabbitMQ 是 erlang 语言开发,所以需要依赖 erlang 环境,所以在安装 RabbitMQ 前需要先安装 erlang wget https://pac ...
- jumpserver如何在远程时使用复制粘贴-windwos系统下
jumpserver堡垒机搭建好了,但是在使用的时候,有时候会出现远程下不能复制粘贴,这让体验十分不爽. 于是着手解决这个问题,附上参考链接,感谢大佬:http://itren.xiaolee.net ...