SQL2008缩小日志脚本】的更多相关文章

以下为SQL2008 缩小日志文件的脚本,在SQL Server Management Studio中打开数据库,将脚本里的数据库名称替换成需要缩小日志的库名称,然后 运行以下脚本. USE WSS_Content_Keeptime2010_V2;GO-- Truncate the log by changing the database recovery model to SIMPLE.ALTER DATABASE WSS_Content_Keeptime2010_V2SET RECOVERY…
--SQL清除所有数据库日志脚本 declare @CurrentDataBaseName nvarchar(100) declare @CurrentDataBaseID nvarchar(100) declare @CurrentLogName nvarchar(100) declare @CurrentClearString nvarchar(4000) declare @CurrentLogFileName nvarchar(255) declare @CurrentClearLogSt…
nginx切割日志脚本 #!/bin/bash #cut nginx log #2018年9月26日14:26:44 #by jiajiezhao ################################### LOG_NAME=access.log LOG_DIR=/usr/local/nginx/logs LOG_PID=/usr/local/nginx/logs/nginx.pid DATE=`date +%F` mv $LOG_DIR/${LOG_NAME} $LOG_DIR/$…
1.uptime日志脚本(每天记录) #!/bin/sh dir=/tmp/uptime_log process=`ps -ef|grep $|grep -v "grep" |grep -v "vim"|grep -v "ps"|wc -l` ];then echo $process exit; fi if [ ! -d $dir ];then mkdir -p $dir; fi while true do current_time=`date…
--SQL2008清空日志文件(数据库和日志文件名一定要是原始文件名!!!)USE [master]GOALTER DATABASE DBData SET RECOVERY SIMPLE WITH NO_WAITGOALTER DATABASE DBData SET RECOVERY SIMPLE   --简单模式GOUSE DBDataGODBCC SHRINKFILE (N'DBData_Log' , 11, TRUNCATEONLY)GOUSE [master]GOALTER DATABA…
设置定时自动清理归档日志脚本 root用户下 [root@localhost ~]# mkdir /nstg [root@localhost ~]# cd /nstg/ [root@localhost nstg]# mkdir bin log tmp [root@localhost nstg]# chown -R oracle:oinstall /nstg [root@localhost nstg]# su - oracle [oracle@localhost ~]$ cd /nstg/bin…
shell按日期自动切割nginx日志脚本 参考:自学it网 http://www.zixue.it/. #nginx日志切割脚本 #author:ce #!/bin/bash #设置日志文件存放目录 logs_path="/usr/local/nginx/logs/" #设置pid文件 pid_path="/usr/local/nginx/nginx.pid" #重命名日志文件 mv ${logs_path}access.log ${logs_path}acces…
一.告警系统主脚本 要求:我们的机器角色多种多样,但是所有机器上都要部署同样的监控系统,也就说所有机器不管什么角色,整个程序框架都是一致的,不同的地方在于根据不同的角色,定制不同的配置文件. 程序架构: bin下是主程序 conf下是配置文件 shares下是各个监控脚本 mail下是邮件引擎 log下是日志 告警系统主脚本: main.sh内容 #!/bin/bash #Written by aming. # 是否发送邮件的开关 export send=1 # 过滤ip地址 export ad…
--数据库名称sjjhzx,日志文件名称ksoa_zuizhong_Log' USE sjjhzx    GO    ALTER DATABASE sjjhzx SET RECOVERY SIMPLE WITH NO_WAIT    GO    ALTER DATABASE sjjhzx SET RECOVERY SIMPLE       GO    USE sjjhzx     GO    DBCC SHRINKFILE (N'ksoa_zuizhong_Log' , 11, TRUNCATE…
问题背景 公司有个简单粗暴的日志服务,它部署在多台机器实例上,收集的日志记录在每台机器本地硬盘,写一个小时自动切换日志文件,硬盘空间写满了自动回卷,大约可以保存两三天的历史数据.为什么说它粗暴呢?原来它不提供任何查询日志的接口,想要获取日志唯一的办法就是直接查日志文件: ssh 执行 grep 得到结果 scp 将结果复制到本地 最后将这些文件拼接在一起作为最终结果.有个前辈写过一个脚本,不过比较简单,基本就是一个 while 循环里串行查询每台实例.获取一次日志需要将近 1 个小时,严重拖慢了…
在oracle:对logmnr工具分析日志这个不陌生:对数据恢复应用场景经常用到:这里为了方便对归档日志进行分析: 当然网上有一个logmnr界面的工具:感觉很人性化:下载需要积分:为此写一个脚本. ##=========================================================== ## oracle_log_fetch.sh ## created by lottu ## // ## usage: oracle_log_fetch.sh $START_TI…
日志访问脚本在连接:https://confluence.atlassian.com/download/attachments/133267635/Atlassian-accessLogScripts.7z?version=1&modificationDate=1203314309606&api=v2 中.希望使用这个脚本: 使用 7Zip 解压 7z 文件. 拷贝所有的访问日志到一个叫做 logs 的文件夹中. 运行 Atlassian-processDailyLog.rb.这个命令将会…
在远程运行节点创建一个cleanlog.sh 脚本文件 vin clenalog.sh 插入以下内容 #!/bin/env bash start=$(date +%y-%m-%d-%H%M%m) File=/software/dubbo-monitor-data/cleanlog/clean_log_$start.txt FilePath=/software/dubbo-monitor-data/statistics echo $File if [ ! -n "$1" ]; then…
为了对每个月的切割过的30个日志文件统计出访问最多的ip地址进行排序,整理了下面的脚本,主要思路是处理每一个日志文件的ip排序,最后进行字典合并,计算出月ip排序. #!/usr/bin/env python import os import sys import commands import re ipsort = {} def IpSort(logfile): ipadd = r'\.'.join([r'\d{1,3}']*4) re_ip = re.compile(ipadd) for…
这篇文章主要介绍了nginx日志切割脚本.nginx日志分析脚本等,需要的朋友可以参考下. 参考自:http://www.jbxue.com/article/13927.html 任务计划 crontab -l 1 15 * * * /home/dongnan/sh/split.sh >> /home/dongnan/sh/cron.log 2>& nginx 日志 ls /var/log/nginx/ 20130730-access.log.gz  20130801-acces…
参考https://blog.csdn.net/qq_39291929/article/details/79054452 1.需求:我们在 /var/log下面有   EmcsYn.log   和  EmcsNw.log  日志,每天分割,现在我们只需要保存一周的,其余的每天15:20:00定时删除  找到一周之前的日志: find /var/log/ -mtime +7 -name "EmcsNw.2*" find /var/log/ -mtime +7 -name "Em…
在应用疯狂打日志的情况下,服务器很容易被塞满磁盘. 先要写一个shell脚本,脚本如下. #!/bin/bash #----------------使用规范---------------- #1.该文件固定存放在linux的 /usr/local/zjport_test/delFiles 目录下 #2.各责任人维护好要清理日志文件的目录,并以注释方式备注写明谁维护 #find:linux的查找命令,用户查找指定条件的文件: #/opt/soft/log/:想要进行清理的任意目录: #-mtime…
一.报错信息 前几天网站突然访问不了,并且报了如下错误: ora-27101: shared memory realm does not exist ora-01034: oracle not available 11g ORA-24324: service handle not initialized 原因:由于数据库归档日志满了,不能继续往数据库里写数据. 二.查看归档日志大小 su - oracle sqlplus / as sysdba show parameter recover 可查…
系统环境:windows server 2012 r2 IIS 版本:IIS8 操作实现清理IIS log File 脚本如下: @echo off ::自动清理IIS Log file set log_path=C:\inetpub\logs\LogFiles ::清理所有log 日志 for /f "delims=" %%i in ('dir /b /a-d /s %log_path%\"*.Log"') do ( del /S /F /Q %%i ) paus…
之前使用数据库数据迁移过程中出现产生大量归档日志的情况(由于迁移的目标库是DG,必须开启归档). 为避免出现归档空间爆掉的情况,设置定时任务删除系统当前时间30分钟前的归档日志,脚本如下: cat delete_archivelog_30min.sh #!/bin/bash source ~/profile_prod1 $ORACLE_HOME/bin/rman target / log=delete_archivelog.log<<eof crosscheck archivelog all;…
SQL数据在附加的时候..有时会因为日志文件过大..或者一些其他问题造成附加失败.. 笔者遇到的问题是数据库主文件(*.mdf)超过25G..日志文件超过200G..附加的耗时简直日了狗了..最后超时..附加失败.. 所以就在想不要这个日志文件了行不行..最后发现了这篇文章.. 阅读原文<SQL Server附加数据库时报1813错误的解决方案> ..以下是对这篇文章的整理和补充.. 主要报错信息 无法重新生成日志,原因是数据库关闭时存在打开的事务/用户,该数据库没有检查点或者该数据库是只读的…
USE [master] GO ALTER DATABASE BizTest SET RECOVERY SIMPLE WITH NO_WAIT GO ALTER DATABASE BizTest SET RECOVERY SIMPLE --简单模式 GO USE [BizTest] GO , TRUNCATEONLY) GO USE [master] GO ALTER DATABASE [BizTest] SET RECOVERY FULL WITH NO_WAIT GO ALTER DATAB…
/*设置为简单模式*/ USE [master] } SET RECOVERY SIMPLE WITH NO_WAIT } SET RECOVERY SIMPLE /*获取日志文件名称*/ } ) /*收缩日志文件*/ , TRUNCATEONLY) /*还原为完全模式*/ USE [master] } SET RECOVERY FULL WITH NO_WAIT } SET RECOVERY FULL {0}替换成数据库名称即可.…
--创建测试数据库 CREATE DATABASE Db GO --对数据库进行备份 BACKUP DATABASE Db TO DISK='c:\db.bak' WITH FORMAT GO --创建测试表 CREATE TABLE Db.dbo.TB_test(ID int) --延时1秒钟,再进行后面的操作(这是由于SQL Server的时间精度最大为百分之三秒,不延时的话,可能会导致还原到时间点的操作失败) WAITFOR DELAY '00:00:01' GO --假设我们现在误操作删…
#!/bin/bash set -e source /etc/bashrc cd `dirname $` linenum=`wc -l userinfolist.txt | awk '{print $1}'` n1= file= while [ $n1 -lt $linenum ] do n2=`expr $n1 + ` sed -n "${n1}, ${n2}p" userinfolist.txt>/home/jideyue/logs/userdir/file_$file.lo…
nginx每天日志量比较大的时候,最好每天自动切割,存储,这样可以方面以后的查询和分析 #!/bin/sh ################### #filename: nginx_log_rotate.sh #vsersion: 0.1v #1 0 * * * /bin/sh /home/project/monitor/nginx_log_rotate.sh >/dev/null 2>&1 ################### logs_path="/usr/local/…
1.删除日志的命令 find 目录路径 -mtime +天数 -name "文件名" -exec rm -rf {} \; 例如:#!/bin/bash find /usr/local/tomcat/logs/ -mtime + -name "*.log" -exec rm -rf {} \; 说明: find:linux查找命令,用户查找指定条件的文件 /usr/local/tomcat/logs/:需要进行清理的目标目录 -mtime:标准语句写法 +:数字代表…
问题描述: 当客户服务器不允许直接备份时,往往通过导出数据库脚本的方式来部署-还原数据库, 但是当数据库导出脚本很大,用Microsoft SQL Server Management Studio执行脚本时,往往会遇到“内存不足”的提示. 解决办法: 用微软自带的sqlcmd工具,可以导入执行.以SQL Server 2008R版本为例: 第一步:Win+R 键入:cmd 命令,开启命令行工具: 第二步:键入:cd C:\Program Files\Microsoft SQL Server\10…
前段时间为公司开发部门建立了TFS平台,其中包括WSS3(MOSS07也可,但是如果不是必须,建议使用轻量级的WSS3).TFS建成之后,程序员们用起来都很满意,总监也很关注. 但是今天早上忽然发现连接不上TFS了,赶紧远程登录检查,发现C盘空间已满(40G),罪魁祸首是"C:\Program Files\Common Files\Microsoft Shared\web server extensions\12\LOGS"文件夹,这个文件夹占了27.6G,里面有大量的体积巨大的日志文…
一.在tomcat的log路径下新建.sh脚本文件clean.sh,内容如下:#!/bin/bashlogs_path="/mnt/tomcat/apache-tomcat-8.5.23/logs" find $logs_path -mtime +30 -name "localhost.*.log" -exec rm -rf {} \;find $logs_path -mtime +30 -name "localhost_access_log.*.txt&…