原文:https://blog.51cto.com/11134648/2163789

ELK简介

ELK是一套完整的日志解决方案,由ElasticSearch、Logstash、 Kibana
这三款开源软件组成。

  • EastiSearch是基于Lucene开发的分布式存储检引擎,用来存储各类日志;
  • Logstash对日志进行收集、分析,并将其存储供以后使用:
  • Kibana 是基于Node.js开发的展示工具,为Logstah和ElasticSearch提供用于日志展示的Web界面,还用于帮助汇总、分析和搜索重要日志数据。

ELK官网https://www.elastic.co/products 分别提供包进行下载安装。

ELK工作原理

  • 在所有需要收集日志的服务上部署Logstash,作为署Logstash agent用于监控并过滤所收集的日志,将过滤后的内容整合在一起,最终全部交给EastiSearch检索引擎;
  • 用EastiSearch进行自定义检索;
  • 再通过Kibana通过结合自定义检索内容生成图表,进行日志数据展示。

部署ElasticSearch

1.安装ElasticSearch

  1. rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch
  2. vim elasticsearch.repo #配置yum源
  3. [elasticsearch-2.x]
  4. name=Elasticsearch repository for 2.x packages
  5. baseurl=http://packages.elastic.co/elasticsearch/2.x/centos
  6. gpgcheck=1
  7. gpgkey=http://packages.elastic.co/GPG-KEY-elasticsearch
  8. enable=1
  9. yum install elasticsearch -y #yum安装elasticsearch

2.安装Java

  1. yum install java -y
  2. java -version

3.修改配置文件elasticsearch.yml

  1. cd /etc/elasticsearch/
  2. vim elasticsearch.yml
  3. #17行 集群名称
  4. cluster.name: yun
  5. #23行 节点名称
  6. node.name: node1
  7. #33行 工作目录
  8. path.data: /data/es-data
  9. path.logs: /var/log/elasticsearch/
  10. #43行 防止交换swap分区
  11. bootstrap.memory_lock: true
  12. #54行 监听网络
  13. network.host: 0.0.0.0
  14. #58行 端口
  15. http.port: 9200

4.创建配置文件中的工作目录,并修改其属性

  1. mkdir -p /data/es-data
  2. chown -R elasticsearch:elasticsearch /data/es-data/

5.启动ElasticSearch服务,并查看其端口9200

  1. systemctl start elasticsearch.service
  2. netstat -ntap | grep 9200 #稍微等待一会

6.通过浏览器访问9200端口

  1. http://192.168.26.144:9200

7.ES交互

通过RESTful API (通过json格式交互)

  1. curl -i -XGET 'http://192.168.175.132:9200/_count?pretty' -d '{
  2. "query": {
  3. "match_all": {}
  4. }
  5. }'

`

8.安装插件

  1. #安装ES插件elasticsearch-head
  2. /usr/share/elasticsearch/bin/plugin install mobz/elasticsearch-head
  1. #安装ES插件elasticsearch-kopf
  2. /usr/share/elasticsearch/bin/plugin install lmenezes/elasticsearch-kopf

安装完成后在plugins目录下可以看到head和kopf

可以在web界面上输入数据,再查询

9.部署ES多集群

在第二台服务器上同时安装ES服务同上,需要注意的是修改配置文件elasticsearch.yml有些许不同。

  1. cd /etc/elasticsearch/
  2. vim elasticsearch.yml
  3. #17行 集群名称
  4. cluster.name: yun
  5. #23行 节点名称
  6. node.name: node2
  7. #69行 自动发现机制
  8. discovery.zen.ping.unicast.hosts: ["192.168.26.144", "192.168.26.147"]


启动elasticsearch

  1. systemctl start elasticsearch.service
  2. netstat -ntap | grep 9200

同样在第一台服务器node1中配置文件修改,再重启服务

  1. #69行 单播列表自动发现机制
  2. discovery.zen.ping.unicast.hosts: ["192.168.26.147", "192.168.26.144"]

访问head可以看到ES的主分片和副本分片

  1. http://192.168.26.144:9200/_plugin/head/


访问kopf可以看到ES的集群节点信息

  1. http://192.168.26.144:9200/_plugin/kopf/

9.生产环境注意内存解锁和文件限制

  1. less /var/log/elasticsearch/yun.log #查看集群日志提示不让锁内存


修改配置文件/etc/security/limits.conf

  1. vim /etc/security/limits.conf
  2. #末尾插入
  3. # allow user 'elasticsearch' mlockall
  4. elasticsearch soft memlock unlimited
  5. elasticsearch hard memlock unlimited
  6. * soft nofile 65535
  7. * hard nofile 65535

重启生效

  1. systemctl restart elasticsearch.service

部署Logstash

1.安装Logstash

  1. rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch
  2. vim /etc/yum.repos.d/ogstash.repo #配置yum源
  3. [logstash-2.1]
  4. name=Logstash repository for 2.1.x packages
  5. baseurl=http://packages.elastic.co/logstash/2.1/centos
  6. gpgcheck=1
  7. gpgkey=http://packages.elastic.co/GPG-KEY-elasticsearch
  8. enable=1
  9. yum install logstash -y

2.创建链接,识别logstash命令

  1. ln -s /opt/logstash/bin/logstash /usr/bin/

3.配置Logstash收集

Logstash使用input和output定义收集日志时的输入和输出。

  • input常用的输入源有:
    file、syslog、redis、log4j、apache log或nginx log,或者其他一些自定义的log格式。
  • output常用的输出有:
    elasticsearch比较常用,fle:写入文件,redis: 写入队列,hdfs: 写入HDFS,需插件支持,zabbix: zabbix监控,mongodb: 写入mongodb库,除此之外编码插件codes也比较常用,经常用来处理json数据或者多行数据源。

(1)定义输入和输出流,类似管道

  1. logstash -e 'input { stdin{} } output { stdout{} }'

(2)详细格式显示

  1. logstash -e 'input { stdin{} } output { stdout{ codec => rubydebug } }'


(3)写入到elasticsearch中

  1. logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.26.144:9200"] } }'



(4)写入ES和同时生成文本

  1. logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.26.144:9200"] } stdout { codec => rubydebug } }'


(5)编写配置文件将事件生成到ES

  1. vim /etc/logstash/conf.d/01-logstash.conf
  2. input { stdin { } }
  3. output {
  4. elasticsearch { hosts => ["localhost:9200"] }
  5. stdout { codec => rubydebug }
  6. }
  1. logstash -f /etc/logstash/conf.d/01-logstash.conf #配置文件生效


5.使用logstash收集日志(系统日志、java异常日志、事件优化处理)

编写配置文件将日志生成到ES中

  1. vim /root/file.conf
  2. input {
  3. file {
  4. path => "/var/log/messages" #系统日志
  5. type => "system"
  6. start_position => "beginning"
  7. }
  8. file {
  9. path => "/var/log/elasticsearch/yun.log" #java异常日志
  10. type => "es-error"
  11. start_position => "beginning"
  12. codec => multiline { #多行优化处理
  13. pattern => "^\["
  14. negate => true
  15. what => "previous"
  16. }
  17. }
  18. }
  19. output {
  20. if [type] == "system" {
  21. elasticsearch {
  22. hosts => ["192.168.26.144:9200"]
  23. index => "system-%{+YYYY.MM.dd}"
  24. }
  25. }
  26. if [type] == "es-error" {
  27. elasticsearch {
  28. hosts => ["192.168.26.144:9200"]
  29. index => "es-error-%{+YYYY.MM.dd}"
  30. }
  31. }
  32. }
  33. logstash -f /root/file.conf #日志生成到ES上



部署kibana

1.安装kibana

  1. wget https://download.elastic.co/kibana/kibana/kibana-4.3.1-linux-x64.tar.gz
  2. tar zxvf kibana-4.3.1-linux-x64.tar.gz -C /opt/
  3. mv /opt/kibana-4.3.1-linux-x64/ /usr/local/
  4. cd /usr/local
  5. mv kibana-4.3.1-linux-x64/ kibana

2.编辑kibana配置文件

  1. vim /usr/local/kibana/config/kibana.yml
  2. #2行
  3. server.port: 5601
  4. #5行
  5. server.host: "0.0.0.0"
  6. #12行 ES地址
  7. elasticsearch.url: "http://192.168.26.144:9200"
  8. #20行
  9. kibana.index: ".kibana"

3.启动kibana

  1. yum install screen -y
  2. screen #开启
  3. /usr/local/kibana/bin/kibana


ctrl+a+d 进行丢入后台

4.访问kibana




基于ELK的日志分析、存储、展示的更多相关文章

  1. 基于ELK Nginx日志分析

    配置Nginx 日志 Nginx 默认的access 日志为log格式,需要logstash 进行正则匹配和清洗处理,从而极大的增加了logstash的压力 所以我们Nginx 的日志修改为json ...

  2. 手把手教你搭建 ELK 实时日志分析平台

    本篇文章主要是手把手教你搭建 ELK 实时日志分析平台,那么,ELK 到底是什么呢? ELK 是三个开源项目的首字母缩写,这三个项目分别是:Elasticsearch.Logstash 和 Kiban ...

  3. asp.net core结合NLog搭建ELK实时日志分析平台

    0.整体架构 整体架构目录:ASP.NET Core分布式项目实战-目录 一.介绍ELK 1.说明(此篇ELK采用rpm的方式安装在服务器上)-牛刀小试 承接上一篇文章的内容准备部署ELK来展示asp ...

  4. [原创]ubuntu14.04部署ELK+redis日志分析系统

    ubuntu14.04部署ELK+redis日志分析系统 [环境] host1:172.17.0.4 搭建ELK+redis服务 host2:172.17.0.3 搭建logstash+nginx服务 ...

  5. ELK + Filebeat 日志分析系统

    ELK + Filebeat 日志分析系统 架构图 环境 OS:CentOS 7.4 Filebeat: 6.3.2 Logstash: 6.3.2 Elasticsearch 6.3.2 Kiban ...

  6. ELK实时日志分析平台环境部署,以及可视化展示

    ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件.新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent) ...

  7. Centos7下ELK+Redis日志分析平台的集群环境部署记录

    之前的文档介绍了ELK架构的基础知识,日志集中分析系统的实施方案:- ELK+Redis- ELK+Filebeat - ELK+Filebeat+Redis- ELK+Filebeat+Kafka+ ...

  8. ELK实时日志分析平台环境部署--完整记录

    在日常运维工作中,对于系统和业务日志的处理尤为重要.今天,在这里分享一下自己部署的ELK(+Redis)-开源实时日志分析平台的记录过程(仅依据本人的实际操作为例说明,如有误述,敬请指出)~ ==== ...

  9. ELK实时日志分析平台环境部署--完整记录(转)

    在日常运维工作中,对于系统和业务日志的处理尤为重要.今天,在这里分享一下自己部署的ELK(+Redis)-开源实时日志分析平台的记录过程(仅依据本人的实际操作为例说明,如有误述,敬请指出)~ ==== ...

随机推荐

  1. 【分布式一致性】etcd

    etcd: https://jimmysong.io/kubernetes-handbook/concepts/etcd.html 什么是 分布式一致性: http://thesecretliveso ...

  2. php mkdir没有权限不能创建成功的问题

    php用mkdir创建目录时,必须保证要创建的目录的父级目录有用户权限才行, 比如当前执行脚本的用户是www用户,要创建的目录是/data/www/bbs/attach/2018 则/data/www ...

  3. [转]如何更换 Ubuntu 18.04 LTS 的 GDM 登录界面背景

    链接地址:https://www.linuxprobe.com/ubuntu-gdm-login.html

  4. NET架构

    .NET架构开发应知应会 .NET程序是基于.NET Framework..NET Core.Mono.[.NET实现]开发和运行的 ,定义以上[.NET实现]的标准规范称为.NET Standard ...

  5. git和GitHub初级

    使用方式: 一种是本地创建一个文档, 然后在github上创建一个仓库, 在上传上去 一种是从仓库下载代码, 然后在本地编辑, 然后在上传上去 第一种: 首先在linux上创建一个文档, mkdir ...

  6. 虚拟机中使用Samba实现文件共享

    首先我们给虚拟机安装samba服务(如果搭的是别的仓库记得开仓库) 输入命令:yum install samba samba服务的配置文件在,我们来看一下/etc/samba/smb.conf 输入命 ...

  7. Linux题库练习

    转一个Linux的题库供自己学习使用(滑稽) 转自:http://www.linuxdiyf.com/view_202485.html 选择题1 在终端下输入mount -a命令的作用是:CA 强制进 ...

  8. why use reverse proxy in asp.net core

    开篇论点 Asp.net Core自带了Kestrel, 为什么我们还要使用诸如IIS.Apache或者Nginx来做反向代理呢? 原因分析 Kestrel用来承载Asp.net Core的动态内容是 ...

  9. .NET Core 配置文件

    老一代配置系统 1,XML格式 格式单一. 2,配置信息Kye,只能一维化配置 3,框架信息和应用程序信息混合到一起 应用程序中是 App.config web项目中           web.co ...

  10. django初识1

    django django初识 django的本质就是基于socket通信 一.127.0.0.1 本地回环地址 后面:8001是端口号 /ppt是根目录下的ppt子网页 二./当前网站的客户端(根目 ...