nginx每天日志量比较大的时候,最好每天自动切割,存储,这样可以方面以后的查询和分析 #!/bin/sh ################### #filename: nginx_log_rotate.sh #vsersion: 0.1v #1 0 * * * /bin/sh /home/project/monitor/nginx_log_rotate.sh >/dev/null 2>&1 ################### logs_path="/usr/local/…
#!/bin/bash savepath_log='/data/logs' nglogs='/data/logs' mkdir -p $savepath_log/$(date +%Y)/$(date +%m) mv $nglogs/access.log $savepath_log/$(date +%Y)/$(date +%m)/access.$(date +%Y%m%d).log mv $nglogs/error.log $savepath_log/$(date +%Y)/$(date +%m)…
nginx切割日志脚本 #!/bin/bash #cut nginx log #2018年9月26日14:26:44 #by jiajiezhao ################################### LOG_NAME=access.log LOG_DIR=/usr/local/nginx/logs LOG_PID=/usr/local/nginx/logs/nginx.pid DATE=`date +%F` mv $LOG_DIR/${LOG_NAME} $LOG_DIR/$…
#!/usr/bin/env python #--coding:utf8-- import sys,subprocess,os,datetime,paramiko,re local_path='/home/pangpeng/' nginx_web_path='/var/www/html/' tomcat_webapps_path='/usr/local/tomcat7/webapps/' backup_nginx_path='/tmp/backup_nginx/' backup_tomcat_a…
Nginx由于轻巧和高效的设计风格,去掉了一些额外的功能,所以它不像apache那样有自动切割日志. 建立一个脚本文件,并保证这个文件有可执行的权限:1.建立一个文件/root/log.nginx.sh(这里只是作为演示,实际上这个脚本文件你可以随意的放在哪个目录和给它取一个你喜欢的名字),在文件里面粘贴如下内容: #!/bin/bash declare logs_path="/var/log/nginx"; declare need_delete_path=${logs_path}/…
需求 由于nginx的日志会不停地增大,所以需要我们自己去切割日志,方便管理,需要达到以下的效果: 按日期自动切割日志,最小单位是天. 当日志总量超过一定量时,自动直接清理日志,限定总量不能超过1000MB. 写入crontab定时任务里. 分析 nginx日志目录下分别有access.log和error.log,按照日期自动切割日志则需要将每天的日志以”yyyymmdd_access/error.log”的格式保存下来,用mv重命名每一天的日志文件即可. 清理日志就简单了,只需要判断这个文件夹…
shell实例利用crontab自动清除日志 程序运行会产生很多的日志,对于无用的日志手动删除比价麻烦,写一个自动执行的命令是很有必要的. 删除文件shell命令 find 对应目录 -mtime +天数 -name "文件名" -exec rm -rf {} \; 具体的命令如下: find /mnt/tomcat/logs/ -mtime +35 -name "*.log" -exec rm -rf {} \; 参数及说明: 整句的作用是将 /mnt/tomca…
原文链接:http://www.cnblogs.com/benio/archive/2010/10/13/1849935.html  本文只节选部分内容 Nginx自己没有日志分割的功能,一旦时间过长,日志文件就会变得很大,在进行日志分析的时候就会变得很困难,因此分割日志很有必要. 本次讲解的是使用shell脚本来实现按天分割日志 #!/bin/bash # Nginx 日志文件所在的目录 LOGS_PATH=/usr/local/nginx/logs # 获取昨天的 yyyy-MM-dd YE…
NG在默认情况下,是始终输出到一个日志文件中,日志文件在nginx.conf中 : access_log  logs/www.access.log  main;  一个文件中不是很方便查找,分析数据,因此需要按现实运维需要定时的对此文件进行切割. 1.准备个切割日志文件的脚本  vi  cut_nginx_log.sh 按每日规格来切割. mv /usr/local/nginx/logs/www.access.log /home/master/logs/nginx/access_$(date -…
#!/bin/bash set -e source /etc/bashrc cd `dirname $` linenum=`wc -l userinfolist.txt | awk '{print $1}'` n1= file= while [ $n1 -lt $linenum ] do n2=`expr $n1 + ` sed -n "${n1}, ${n2}p" userinfolist.txt>/home/jideyue/logs/userdir/file_$file.lo…