描述: 之前我已经完成了使用ElasticSearch.kibana.filebeat.三个工具完成分布式集群收集 分布在各个ip地址上的微服务日志,这样就可以统一的在一个服务器上查看了所有的微服务产生的日志了,避免了一个个通过工具远程linux服务器去查看日志,极大提高了日志查看分析的效率了.当时目前我只是完成收集和查看所有日志,那么时间一长我们就会遇到问题,日志一直发到elastic服务器上,日志越来越多,我就需要一个定时删除过期的日志数据的办法. 功能需求: 需要定时删除elasticSe…
比如我有个用SQLite Studio创建的Sqlite3类型数据库,里面有个表名为StatisticsData的表结构是 : -- 表:StatisticsData CREATE TABLE "StatisticsData" ( "Id" TEXT NOT NULL, "MachineName" NVARCHAR, "SessionId" INTEGER, "ProcessId" INTEGER, &qu…
在整理手上几台SQL SERVER 2000的数据库备份时,一方面为了方便快速还原数据库,另外一方面为了备份冗余.备份方式统一(先备份到本地,然后收上磁带),将以前通过Symantec Backup Exec直接备份上带的作业改成了如下方式: Step 1: 通过数据库维护计划将备份生成在本地磁盘M,完整备份保留2天,事务日志备份保留3天 M:\DB_BACKUP\FULL_BACKUP M:\DB_BACKUP\LOG_BACKUP Step 2:  备份完成后通过Symantec Backu…
命令:  find . -mtime +N -type f -name "*.log.*" -exec rm -f {} \; 简单解释: find .查询  ; -mtime 规定时间的一个参数,固定格式; +N :  N是指N天前; -type f :类型文件; -name: 名称; "*.log.*" :要删除的文件的后缀名称,如果是删除全部,可以写"*"; -exec rm -f {} \ :固定格式,递归删除前面条件约束下的文件; 举例…
有时数据没有实时备份恢复那么高的安全性需求,但每天 ,或者定期备份表结构 和数据依旧是很有必要的,介绍一种方法 在归档和非归档模式均可使用的自动备份方法. 预期效果是备份用户下的数据含表结构,备份文件在dmp文件下,每天晚上1点备份, 为了防止占用物理磁盘过大,自动删除两周前的旧数据,建议养成定时做备份数据有效性 检查(用导出的文件,导入空库测试). log文件夹下存放日志 1 .制作 备份bat @echo off echo 正在备份pyc_ORACLE 数据库 ,请稍等……exp useri…
-----sqlserver 数据异地备份 默认删除 七天前的数据 -----该代码可配置成SQLServer作业里做调度,或者配置成任务计划进行执行 ----挂载异地盘符 exec master..xp_cmdshell 'net use w: "\\172.16.30.34\D$" "726" "/user:172.16.30.34\administrator"', no_output /*--说明: w: 是映射网络路径对应本机的盘符,与下…
/******************************************* * 批量备份数据库且删除3天前的备份 *******************************************/ ) ) ) ) ) ) --备份参数 DECLARE tmp_Cur CURSOR FOR SELECT NAME FROM [sys].[databases] WHERE NAME NOT IN ( 'master', 'model','msdb','tempdb' ) SET…
oracle定时备份数据库,以及删除7天前备份的数据. 1.创建存放备份目录: mkdir /home/oracle/data_backup mkdir /home/oracle/log_backup 2.编辑脚本oracle_backup.sh,内容如下: #!/bin/sh export ORACLE_BASE=/home/oracleexport ORACLE_HOME=$ORACLE_BASE/product/10.2.0/db_1export ORACLE_SID=orclexport…
此为在网络上找来的,觉得很好! 实现目的: 对Mongodb数据库日志按天保存,并且只保留最近7天的日志记录. 具体操作: 使用Mongodb数据库自带的命令来切割日志 ps -def | grep mongod kill -SIGUSR1 <mongod process id> 1.创建Mongodb数据库日志切割脚本 vi /home/crontab/cut_mongodb_log.sh #编辑 #!/bin/sh datafile=/home/data/mongodb/mongodb_d…
1. MySQL5.6以上版本 2. 修改 /etc/my.cnf 文件 # vim /etc/my.cnf [client] host=localhost user=你的数据库用户 password='你的数据库密码' 3. 编写数据库脚本 mysql-backup.sh # vim mysql-backup.sh #!/bin/bash backupDir=数据库备份目录 backupTime=`date +%Y%m%d%H%M%S` mysqldump 你的数据库 | gzip > $ba…