之前一段时间,发现线上日志服务器总是会突然丢失日志,碰到问题时搞的很被动.联系运维同学,又总是被往后推(后来看了一下日志归档脚本,运维同学写的bug).索性自己写了一个脚本,添加到crontab任务中,替换运维同学的脚本. 线上服务器每天大概产生6000-10000个日志文件(部分级别的日志),每个文件99m.压缩时考虑到尽可能多保留日志,gzip设置的9,压缩比最大.但是最慢的压缩算法.如果以单个进程来慢慢压缩.按天归档,日志较多时,一天都归不完.所以肯定要多个进程压缩. bash中,把任务放…