为什么要用ELK:

一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。

一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,可以提高定位问题的效率。

1.收集-能够采集多种来源的日志数据

2.传输-能够稳定的把日志数据传输到中央系统

3.存储-如何存储日志数据

4.分析-可以支持 UI 分析

5.警告-能够提供错误报告,监控机制

ELK提供了一整套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用。目前主流的一种日志系统。

ELK简介:

ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。

Elasticsearch是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。

Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为c/s架构,client端安装在需要收集日志的主机上,server端负责将收到的各节点日志进行过滤、修改等操作在一并发往elasticsearch上去。

Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。

Filebeat隶属于Beats。目前Beats包含四种工具:

1.Packetbeat(搜集网络流量数据)

2.Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)

3.Filebeat(搜集文件数据)

4.Winlogbeat(搜集 Windows 事件日志数据)

Filebeat:

https://www.elastic.co/cn/products/beats/filebeat
https://www.elastic.co/guide/en/beats/filebeat/5.6/index.html

Logstash:
https://www.elastic.co/cn/products/logstash
https://www.elastic.co/guide/en/logstash/5.6/index.html

Kibana:

https://www.elastic.co/cn/products/kibana

https://www.elastic.co/guide/en/kibana/5.5/index.html

Elasticsearch:
https://www.elastic.co/cn/products/elasticsearch
https://www.elastic.co/guide/en/elasticsearch/reference/5.6/index.html

elasticsearch中文社区:
https://elasticsearch.cn/

部署Elk:

  • 安装JDK 必须是1.8或者更高

   

把离线包传上去 解压出来,然后配置配置环境变量

[root@localhost soft]# vim /etc/profile.d/java.sh

保存退出 重启配置

[root@localhost soft]# source /etc/profile.d/java.sh

测试一下


  • 安装elasticsearch

上传离线安装包 解压 重命名 (也可以不重命名)
[root@localhost soft]# mv elasticsearch-6.2./ elasticsearch
[root@localhost soft]# ls
elasticsearch jdk1..0_161
[root@localhost soft]# 修改配置文件(备份一下防止误删)

[root@localhost soft]# cd /soft/elasticsearch/config/
[root@localhost config]# ls
elasticsearch.yml jvm.options log4j2.properties
[root@localhost config]# cp elasticsearch.yml elasticsearch_bak.yml
[root@localhost config]#

cluster.name: my-cluster #集群名称

node.name: node-1      #节点名称

path.data: /soft/elasticsearch/data   #数据路径

path.logs: /soft/elasticsearch/logs   #日志路径

network.host: 192.168.72.111          #主机地址

http.port: 9200                       #端口

discovery.zen.ping.unicast.hosts: ["192.168.72.111:9200"] # 起订新节点通过主机列表发现

discovery.zen.minimum_master_nodes: 1   #主节点数量 防止集群脑裂问题

http.cors.enabled: true                          #es跨域配置

http.cors.allow-origin: "*"                    #es跨域配置

vim /etc/sysctl.conf

#末尾追加否则服务会报错。

vm.max_map_count=655360

sysctl -p   #使上述配置生效

 创建es启动用户

[root@localhost config]# useradd elasticsearch
[root@localhost config]# chown -R elasticsearch.elasticsearch /soft/elasticsearch/

修改文件句柄数

[root@localhost config]# vim /etc/security/limits.conf

#添加下面内容:

*               soft    nofile           102400

*               hard    nofile           102400

*               soft    nproc           102400

*               hard    nproc           102400

切换用户后台启动

[root@localhost config]# su - elasticsearch -c 'nohup /soft/elasticsearch/bin/elasticsearch &'

设置开机启动

[root@localhost config]# echo "su - elasticsearch -c 'nohup /soft/elasticsearch/bin/elasticsearch &'" >> /etc/rc.local

查看服务是否启动

简单测试下

  • 安装Logstash

上传离线安装包 解压 重命名 (也可以不重命名)

增加配置新的测试配置文件 先配置成调试模式测试

[root@localhost config]# vim /soft/logstash/config/test.conf

启动logstash

[root@localhost config]# /soft/logstash/bin/logstash -f /soft/logstash/config/test.conf

  • 安装filebeat

上传离线安装包 解压 重命名 (也可以不重命名)

修改配置文件

[root@localhost filebeat]# vim filebeat.yml

 
 enabled: True   //启用该配置

paths:
- /soft/log/*.log    //检测的文件 可以是一个列表

output.logstash:
# The Logstash hosts
hosts: ["192.168.72.111:5044"]    //logstash 地址 把信息推送到logstash

启动filebeat

[root@localhost filebeat]# /soft/filebeat/filebeat -c /soft/filebeat/filebeat.yml -e

测试一下 在/soft/log 下面新建log文件  并写入内容

[root@localhost ~]# echo 'test' >> /soft/log/1.log

查看logstash 控制台输出

测试完成,修改logstash 配置elasticsearch 数据库  新建一个配置文件

[root@localhost config]# vim es.conf

  • 安装kibana

上传离线安装包 解压 重命名 (也可以不重命名)

修改配置文件

[root@localhost config]# vim kibana.yml 

  server.port: 5601

 server.host: "192.168.72.111"

elasticsearch.url: "http://192.168.72.111:9200"

 启动kibana

[root@localhost kibana]# bin/kibana

 
  • logstash的filter 功能

    Logstash事件处理有三个阶段:inputs → filters → outputs。是一个接收,处理,转发日志的工具。支持系统日志,webserver日志,错误日志,应用日志,总之包括所有可以抛出来的日志类型。

    修改配置文件

input {

    beats {
host=>"172.16.101.10"
port => ""
}
}
filter {
grok {
patterns_dir=>"/soft/logstash/patterns"
match => {
"message" => "(?<date>\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2},\d{3})\s-\s(%{IP:client})\s-\s(?<level>[\S]*)"
}
}
geoip{
source=>"client"
}
mutate{
remove_field => "host"
} } output {
elasticsearch {
hosts => ["172.16.101.10:9200"]
}
}

grok 表达式 在线调试

http://grokdebug.herokuapp.com/

ELK部署配置使用记录的更多相关文章

  1. ELK环境配置+log4j日志记录

    ELK环境配置+log4j日志记录 1. 背景介绍 在大数据时代,日志记录和管理变得尤为重要. 以往的文件记录日志的形式,既查询起来又不方便,又造成日志在服务器上分散存储,管理起来相当麻烦, 想根据一 ...

  2. [原创]CI持续集成系统环境---部署Jenkins完整记录

    Jenkins通过脚本任务触发,实现代码的自动化分发,是CI持续化集成环境中不可缺少的一个环节. 下面对Jenkins环境的部署做一记录. ------------------------------ ...

  3. HAproxy部署配置

    HAproxy部署配置 拓扑图 说明: haproxy服务器IP:172.16.253.200/16 (外网).192.168.29.140/24(内网) 博客服务器组IP:192.168.29.13 ...

  4. Logstash+Kibana部署配置

    Logstash是一个接收,处理,转发日志的工具.支持系统日志,webserver日志,错误日志,应用日志,总之包括所有可以抛出来的日志类型. 典型的使用场景下(ELK): 用Elasticsearc ...

  5. 分布式实时日志分析解决方案ELK部署架构

    一.概述 ELK 已经成为目前最流行的集中式日志解决方案,它主要是由Beats.Logstash.Elasticsearch.Kibana等组件组成,来共同完成实时日志的收集,存储,展示等一站式的解决 ...

  6. Centos7.2 下DNS+NamedManager高可用部署方案完整记录

    Centos7.2 下DNS+NamedManager高可用部署方案完整记录 之前说到了NamedManager单机版的配置,下面说下DNS+NamedManager双机高可用的配置方案: 1)机器环 ...

  7. office web apps安装部署,配置https,负载均衡(六)配置负载均衡

    owa可以采用任何的负载均衡方案,我们这里采用阿里云提供的负载均衡解决方案 前提条件,你已经配置了一台域控制器,两台域服务器[即安装了owa相关软件,并将计算机隶属于域]: 如果您不清楚怎么做,那么请 ...

  8. office web apps安装部署,配置https,负载均衡(五)配置服务器场

    前提条件:您已经完成了域控制器的配置,拥有域账号,并且已经安装了OWA启动所需要的必要软件: 具体步骤可以参考: office web apps安装部署,配置https,负载均衡(一)背景介绍 off ...

  9. 部署Jenkins完整记录

    Jenkins通过脚本任务触发,实现代码的自动化分发,是CI持续化集成环境中不可缺少的一个环节.下面对Jenkins环境的部署做一记录.-------------------------------- ...

随机推荐

  1. React源码 memo Fragment StrictMode cloneElement createFactory

    1.memo react 16.6 推出的 api ,他的用意是给 function component 也有 PureComponent 这样一个类似的功能,因为我们知道 PureComponent ...

  2. ubuntu 1804安装详解

    我这边安装的是ubuntu server版本,大家安装时可以参考我这篇文件进行安装. 1.选择安装语言: 这里选择默认的"English"和“中文(简体)”都可以. 2.选择”安装 ...

  3. JMeter【第五篇】关联:5种方法

    前几天在Q群里看到群友发的最近10年性能测试工具使用率的统计,最近的2018年,jmeter+loadrunner占了93%的使用率,说明这两个是主流,其中,jmeter的使用率逐年提升,现在已经超过 ...

  4. JSPDF支持中文(思源黑体)采坑之旅,JSPDF中文字体乱码解决方案

    我拍个砖,通常标称自己文章完美解决何种问题的,往往就是解决不了任何问题! 众所周知,JSPDF是一个开源的,易用的,但是对中文支持非常差的PDF库. 下面,我教大家,如何在pdf中使用思源黑体.思源黑 ...

  5. scrapy-模块

    爬虫模块:beautifulsoup4 scrapy_splash: pip install scrapy_splash scrapy_splash模块,与selenium类似,用来获取js渲染后的h ...

  6. Python——IO多路复用之select模块select方法

    Python——IO多路复用之select模块select方法 使用select模块的select方法实现Python——IO多路复用 实现同时将终端输入的文本以及客户端传输的文本写入文本文件中: w ...

  7. BILIBILI之滑块验证

    bilibili的滑动验证码图片比较好玩,和前一篇不大一样. 采用canvas方法,分析发现只找到一个图片,不过,可以通过设置display截图方式获得2张图(完整图片,带缺口的图片),取得图片后接下 ...

  8. 食物链【NOI2001】(信息学奥赛一本通 1390)

    [题目描述] 动物王国中有三类动物A,B,C,这三类动物的食物链构成了有趣的环形.A吃B, B吃C,C吃A. 现有N个动物,以1-N编号.每个动物都是A,B,C中的一种,但是我们并不知道它到底是哪一种 ...

  9. mysql 主从 数据不一致

    用pt-table-checksum校验数据一致性 Jun 4th, 2013 主从数据的一致性校验是个头疼的问题,偶尔被业务投诉主从数据不一致,或者几个从库之间的 数据不一致,这会令人沮丧.通常我们 ...

  10. [技术博客]阿里云签名机制字符串的C语言实现

    [技术博客]阿里云签名机制字符串的C语言实现 问题描述见:阿里云签名机制 话不多说,上字符串函数转化函数代码 bool AlicloudRequest::sendV2Request() { if( q ...