数据库迁移,其中有个数据量较大的表的索引,在迁移的时候出现,同步超时的情况
Notice 2014-08-05 15:14:54.856107 14240 3892311808 Poster: Operation ODR_DDL on table "CMUSER"."TBL_CM_PACKAGEPUSHSESSION_R" is taking longer than 5 seconds. SID/s
erial: 719/35771 Subqueue: 1. (posting from dbuis, queue dbuissplex, to dbuis) [module opo]
Notice 2014-08-05 15:15:11.425538 14240 3838027520 s:1 Poster: Replicated DDL ".alter table CMUSER.TBL_CM_PACKAGEPUSHSESSION_R. add constr..." (posting from dbuis
, queue dbuissplex, to dbuis) [module opo]
Notice 2014-08-05 15:19:12.820272 14240 3838027520 s:1 Poster: Replicated DDL ".alter table TBL_CM_USERSERVICE logging." (posting from dbuis, queue dbuissplex, to
dbuis) [module opo]
Notice 2014-08-05 15:19:49.960636 14240 3892311808 Poster: Operation ODR_DDL on table is taking longer than 5 seconds. SID/serial: 719/35771 Subqueue: 1. (postin
g from dbuis, queue dbuissplex, to dbuis) [module opo]
Notice 2014-08-05 15:19:57.267446 14240 3838027520 s:1 Poster: Replicated DDL ".create index CMUSER.IDX_WLVI_FK_DATE on CMUSER.TBL_CM_WHITE..." (posting from dbuis
, queue dbuissplex, to dbuis) [module opo]
Notice 2014-08-05 15:20:23.243563 14240 3838027520 s:1 Poster: Replicated DDL ".create index CMUSER.IDX_RERE_UID_FK_TYPE on CMUSER.TBL_CM_R..." (posting from dbuis
, queue dbuissplex, to dbuis) [module opo]
Notice 2014-08-05 15:20:59.973385 14240 3892311808 Poster: Operation ODR_DDL on table is taking longer than 5 seconds. SID/serial: 719/35771 Subqueue: 1. (postin
g from dbuis, queue dbuissplex, to dbuis) [module opo]
Notice 2014-08-05 15:21:38.667181 14240 3838027520 s:1 Poster: Replicated DDL ".create index CMUSER.IDX_CM_PACKAGESPUSH_H_N on CMUSER.TBL_C..." (posting from dbuis
, queue dbuissplex, to dbuis) [module opo]
Notice 2014-08-05 15:26:13.815592 14240 3892311808 Poster: Operation ODR_DDL on table is taking longer than 5 seconds. SID/serial: 719/35771 Subqueue: 1. (postin
g from dbuis, queue dbuissplex, to dbuis) [module opo]
Warning 2014-08-05 15:27:08.728807 14240 8869728 Poster: Main thread is waiting 59 seconds for session -1 to commit before processing next operation. (posting from
dbuis, queue dbuissplex, to dbuis) [module opo]
Notice 2014-08-05 15:27:08.855210 14240 8869728 Poster: No locks found (posting from dbuis, queue dbuissplex, to dbuis) [module osp]
Notice 2014-08-05 15:27:09.412913 14240 3892311808 Poster: Operation ODR_DDL on table is taking longer than 61 seconds. SID/serial: 719/35771 Subqueue: 1. (posti
ng from dbuis, queue dbuissplex, to dbuis) [module opo]
Warning 2014-08-05 15:28:08.864055 14240 8869728 Poster: Main thread is waiting 119 seconds for session -1 to commit before processing next operation. (posting from
dbuis, queue dbuissplex, to dbuis) [module opo]
Notice 2014-08-05 15:28:08.983965 14240 8869728 Poster: No locks found (posting from dbuis, queue dbuissplex, to dbuis) [module osp]
Notice 2014-08-05 15:28:09.508029 14240 3892311808 Poster: Operation ODR_DDL on table is taking longer than 121 seconds. SID/serial: 719/35771 Subqueue: 1. (post
ing from dbuis, queue dbuissplex, to dbuis) [module opo]
Show post 查看
Operations
Target Status Posted Since Total Backlog
---------- --------------- ---------- ------------------ ---------- ----------
o.dbuis Running 0 19-Aug-14 13:05:42 10321921 10318726
发现Operations Posted这项的值为空,说明此时没有上传
从数据库里查看,发现传输经产发生断开的情况
原因是这个同步在900秒内没有跑完,所以就会断开,可以通过修改
sp_ctrl>set param SP_OPO_MAX_OEXN_TIME 3600
将时间修改到3600秒,此时不用对post进程进行停止,他会在下一次超时后,重新启动
修改完成后,一切恢复正常
- asp.net viewstate 数据过大 导致错误
当在ViewState中放入dataSet的数据量比较大的时候,当再点页面上的控件时,不会返回到后台,并且会出现如下错误: 或者是上面的12030改成500的错误. --解决方法:Viewstate绑 ...
- 黄聪:Wordpress、PHP使用POST数据过大导致MySQL server has gone away报错原因分析
错误原因: 当POST的数据超过 max_allowed_packet 就会报 MySQL server has gone away 的错误. 1.查看当前Mysql的 max_allowed_pac ...
- Thinkphp解决phpExcel导出数据量大导致内存溢出
工作需要导出几万的数据量.操作比较频繁.之前数据在七八千是数据导出很慢.phpExcel是方便但是性能一般.现在改为使用csv导出数据:可以缓解内存压力,一次导出两三万是没问题的.当然服务器内存给力, ...
- Mysql中使用JDBC流式查询避免数据量过大导致OOM
一.前言 java 中MySQL JDBC 封装了流式查询操作,通过设置几个参数,就可以避免一次返回数据过大导致 OOM. 二.如何使用 2.1 之前查询 public void selectData ...
- 分享工作中遇到的问题积累经验 事务日志太大导致insert不进数据
分享工作中遇到的问题积累经验 事务日志太大导致insert不进数据 今天开发找我,说数据库insert不进数据,叫我看一下 他发了一个截图给我 然后我登录上服务器,发现了可疑的地方,而且这个数据库之前 ...
- 网站添加数据出错,原来是MS SQL Server2008日志文件占据空间过大导致的
最近发现公司上线的八爪鱼招标网有部分功能出现问题,主要表现为无法向数据库插入数据:远程登陆到数据库服务器时,发现原本的40G空间都被数据库吃完了,于是打开MS SQL Server 2008对数据库进 ...
- 使用logstash同步MySQL数据到ES
使用logstash同步MySQL数据到ES 版权声明:[分享也是一种提高]个人转载请在正文开头明显位置注明出处,未经作者同意禁止企业/组织转载,禁止私自更改原文,禁止用于商业目的. https:// ...
- rsync+sersync自动同步备份数据
一.为什么要用Rsync+sersync架构?1.sersync是基于Inotify开发的,类似于Inotify-tools的工具2.sersync可以记录下被监听目录中发生变化的(包括增加.删除.修 ...
- 解决持久化数据太大,单个节点的硬盘无法存储的问题;解决运算量太大,单个节点的内存、CPU无法处理的问题
需要学习的技术很多,要自学新知识也不是一件容易的事,选择一个自己比较感兴趣的会是一个比较好的开端,于是,打算学一学分布式系统. 带着问题,有目的的学习,先了解整体架构,在深入感兴趣的细节,这是我的计划 ...
随机推荐
- 第二百九十、一、二天 how can I 坚持
上周日,腊八,好冷,去菏泽了.坐火车,没座.好冷,下午菏泽学院,大体看了看,很是怀念,有点遗憾,在网吧玩的时间太长了,留不住. 周一,长太婚礼,竟然没有只是吃了个饭,有点小失望,下午坐车回京,两点坐的 ...
- work_5
第五次作业对我个人来说是很难的,因为之前没怎么接触过这方面的内容,有幸能跟宗毅组成一队,我也仔细看了他的Python代码,因为对于Python也是第一次接触,所以我感觉在有限的时间里学会并且灵活运用还 ...
- 排序算法之直接插入排序(java实现)
package com.javaTest300; import java.util.Arrays; public class Test041 { public static void main(Str ...
- zoj 1610 Count the Colors
http://acm.zju.edu.cn/onlinejudge/showProblem.do?problemId=610 Count the Colors Time Limit:2000MS ...
- HDU 3911 Black And White (线段树区间合并 + lazy标记)
题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=3911 给你n个数0和1,m个操作: 0操作 输出l到r之间最长的连续1的个数 1操作 将l到r之间 ...
- [转]Oracle关于null的处理
转至:http://www.2cto.com/database/201209/157606.html 关于空值null的排序问题 Oracle排序中NULL值处理的五种常用方法: 1.缺省O ...
- 多线程和Boost::Asio
线程安全 一般的,高并发使用不同的对象是安全的,在高并发中使用单一的对象是不安全的,io_service类型提供了单对象高并发的强安全保证. 线程池 多线程可能调用io_service::run()来 ...
- mac ide
常用IDE xcode sublime text eclipse xampp + phpstorm sql客户端:sequel pro 虚拟机:parallels desktop sftp客户端:Cy ...
- Codeforces Beta Round #85 (Div. 1 Only) B. Petya and Divisors 暴力
B. Petya and Divisors Time Limit: 20 Sec Memory Limit: 256 MB 题目连接 http://codeforces.com/contest/111 ...
- 用c#读取并分析sql2005日志
用过logExplorer的朋友都会被他强悍的功能吸引,我写过一篇详细的操作文档可以参考http://blog.csdn.net/jinjazz/archive/2008/05/19/2459692. ...