ELK 日志学习
一.Elasticsearch 安装(所有的版本均使用5.5.0 ,且版需要相同 logstash \ kibana \ filebeat )
官网下载地址:https://www.elastic.co/cn/
(下载Linux版),上传到本地虚拟机服务器 ,tar -zxvf 解压,运行
遇到的问题1 : 不允许 root 用户启动
解决:
adduser test
passwd test
chown -R test 文件根目录
遇到的问题2:
max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536]
max number of threads [1024] for user [lishang] likely too low, increase to at least [2048]
解决:(切记,添加完退出登陆,再登陆,否则不会生效)
vim /etc/security/limits.conf
添加如下内容: * soft nofile * hard nofile * soft nproc * hard nproc
遇到的问题3:
max number of threads [1024] for user [lish] likely too low, increase to at least [2048]
解决:
vim /etc/security/limits.d/-nproc.conf
修改或者添加下:
* soft nproc
遇到的问题4:
max virtual memory areas vm.max_map_count [65530] likely too low, increase to at least [262144]
解决:
vim /etc/sysctl.conf
添加
vm.max_map_count=
退出执行
sysctl -p
遇到的问题5:
再虚拟机中 127.0.0.1:9200 成功 , 外部 :虚拟机 ip:9200 失败
解决:
在conf 文件下添加:
net.host: 虚拟机IP
最后:在主机
在虚拟机:
二、安装 kibana (数据展示)
在elasticsearch.org 官网有一系列的软件可以下载,下载5.5.0版本的 kibana
解压同elasticsrarch 上
修改配置:/kibana/config/kibana.yml
server.host:"0.0.0.0" elasticsearch.url : "http://localhost:9200"
启动 kibana
./bin/kibana
浏览器访问:服务器ip:5601
三、logstash 安装启动
下载解压同上,配置区别较大
1.在logstash 根目录下建立 logstash.conf 目录,内容包括如下
input {
beats{
port =>
}
} filter{
} output {
elasticsearch{
hosts => ["172.18.100.78:9200"]
index => "tomcat_ctmpweb_%{+YYYY.MM.dd}"
}
stdout{
codec =>rubydebug
}
}
~
其中 input 为输入数据端,此处设置数据来源为 filebeat 搜集,稍后配置
输出数据为 elasticsearch
启动 logstash
bin/logstash -f nginx_logs.conf
四、安装启动 filebeat
下载,解压,配置 filebeat.yml
1.配置日志文件读取路径
2.(默认输出到elasticsearch ),注释掉elasticsearch,开放 logstash
3.启动 filebeat
./filebeat -e -c filebeat.yml -d "publish"
五、分析日志
在监听的日志文件中加入new.log ,当有新的日志加入,会及时分析如下
若想要重新开始扫描日志,删掉filebeat 目录下data目录中的数据,则filebeat 会重新扫描
ELK 日志学习的更多相关文章
- ELK日志分析 学习笔记
(贴一篇之前工作期间整理的elk学习笔记) ELK官网 https://www.elastic.co ELK日志分析系统 学习笔记 概念:ELK = elasticsearch + logstas ...
- 浅谈ELK日志分析平台
作者:珂珂链接:https://zhuanlan.zhihu.com/p/22104361来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. 小编的话 “技术干货”系列文章 ...
- ELK日志分析系统-Logstack
ELK日志分析系统 作者:Danbo 2016-*-* 本文是学习笔记,参考ELK Stack中文指南,链接:https://www.gitbook.com/book/chenryn/kibana-g ...
- Docker笔记(十):使用Docker来搭建一套ELK日志分析系统
一段时间没关注ELK(elasticsearch —— 搜索引擎,可用于存储.索引日志, logstash —— 可用于日志传输.转换,kibana —— WebUI,将日志可视化),发现最新版已到7 ...
- ELK 日志平台构建
elastic中文社区 https://elasticsearch.cn/ 完整参考 ELK实时日志分析平台环境部署--完整记录 https://www.cnblogs.com/kevingrace/ ...
- ELK日志分析之安装
ELK日志分析之安装 1.介绍: NRT elasticsearch是一个近似实时的搜索平台,从索引文档到可搜索有些延迟,通常为1秒. 集群 集群就是一个或多个节点存储数据,其中一个节点为主节点,这个 ...
- 【ELK】ELK日志套件安装与使用
ELK日志套件安装与使用 1.ELK介绍 ELK不是一款软件,而是elasticsearch+Logstash+kibana三款开源软件组合而成的日志收集处理套件,堪称神器.其中Logstash负 ...
- springboot 集成 elk 日志收集功能
Lilishop 技术栈 官方公众号 & 开源不易,如有帮助请点Star 介绍 官网:https://pickmall.cn Lilishop 是一款Java开发,基于SpringBoot研发 ...
- ELK 日志分析体系
ELK 日志分析体系 ELK 是指 Elasticsearch.Logstash.Kibana三个开源软件的组合. logstash 负责日志的收集,处 ...
随机推荐
- 使用uni-app开发微信小程序之登录模块
从微信小程序官方发布的公告中我们可获知:小程序体验版.开发版调用 wx.getUserInfo 接口,将无法弹出授权询问框,默认调用失败,需使用 <button open-type=" ...
- 《算法》第二章部分程序 part 2
▶ 书中第二章部分程序,加上自己补充的代码,包括若干种归并排序,以及利用归并排序计算数组逆序数 ● 归并排序 package package01; import java.util.Comparato ...
- WebForm多页面传值跳转
一.URL传值 URL传值是利用跳转地址直接加变量定义内容 格式:跳转地址?任意变量=传的值--?=之间不能有空格 多条数据传值 在地址栏继续拼接&key=value void Button1 ...
- Centos7 搭建Gitlab服务器并配置项目全过程
https://blog.csdn.net/Abysscarry/article/details/79402695 gitlab与jenkins整合搭建 https://blog.csdn. ...
- python的type class
在python中,用户定义的class是一个PyTypeObject ( XXX_Type)对象. #PyType_Type是一切类的基类,这是一个全局数据PyTypeObject PyType_Ty ...
- twisted的tcp.py分析
#每个connector都有一个 Connection对象@implementer(interfaces.ITCPTransport, interfaces.ISystemHandle) class ...
- springboot 多环境选择
1.配置开发环境(开发环境) 2. application.yml 环境选择 3.cmd 切换环境 4. 设置环境调用方法 5. 另一方法
- synchronized 和 lock 的区别
1.Lock不是Java语言内置的,synchronized是Java语言的关键字,因此是内置特性.Lock是一个类,通过这个类可以实现同步访问: 2.Lock和synchronized有一点非常大的 ...
- Java 基础 - 对象池
对象池 优点: 防止过多的创建对象合理利用对象, 缺点: 会有线程阻塞 Demo 测试代码 package com.cjcx.pay.obj; import java.util.Enumerati ...
- package-info.java
参考文章: http://blog.sina.com.cn/s/blog_93dc666c0101gzlr.html 对于package-info.java我们并不陌生,但又陌生. 在我们每次建立pa ...