GoldenGate 性能优化方法
从根本上讲,OGG复制性能和要复制的表是否存在主键和唯一索引有很大关系,所以从应用系统开发商对表结构的规范更为有效。OGG调优通常采用拆分进行的方式,拆分方法如下所述。
Extract拆分方法
1) 停止extract进程
2) 停止datapump、进程
GGSCI> INFO datapump_name
EXTRACT DPEF Last Started 2011-01-28 12:34 Status RUNNING
Checkpoint Lag 00:00:00 (updated 00:00:05 ago)
Log Read Checkpoint File ./dirdat/ef000010
2011-01-28 12:47:45.000000 RBA 148645
直至RBA号不变化,才能停止
3) 停止replicat进程
GGSCI> INFO replicat_name
REPLICAT RPEF Last Started 2011-01-28 12:30 Status RUNNING
Checkpoint Lag 00:00:00 (updated 00:00:05 ago)
Log Read Checkpoint File ./dirdat/ef000006
2011-01-28 12:47:45.000000 RBA 149258
直至RBA号不变化,才能停止
4) 记录extract检查点
Extract检查点包括:Recovery Checkpoint和Current Checkpoint
GGSCI> INFO extract_name, SHOWCH
EXTRACT EXEE Last Started 2011-01-28 09:58 Status STOPPED
Checkpoint Lag 00:00:00 (updated 00:01:02 ago)
Log Read Checkpoint Oracle Redo Logs
2011-01-28 10:02:16 Seqno 26, RBA 7090688
Current Checkpoint Detail:
Read Checkpoint #1
Oracle Redo Log
Startup Checkpoint (starting position in the data source):
Sequence #: 26
RBA: 289296
Timestamp: 2011-01-28 09:27:31.000000
Redo File: C:\ORACLE\PRODUCT\10.2.0\ORADATA\ORCL\REDO02.LOG
Recovery Checkpoint (position of oldest unprocessed transaction in the data source):
Sequence #: 26
RBA: 7088144
Timestamp: 2011-01-28 10:02:16.000000
Redo File: C:\ORACLE\PRODUCT\10.2.0\ORADATA\ORCL\REDO02.LOG
Current Checkpoint (position of last record read in the data source):
Sequence #: 26
RBA: 7090688
Timestamp: 2011-01-28 10:02:16.000000
Redo File: C:\ORACLE\PRODUCT\10.2.0\ORADATA\ORCL\REDO02.LOG
Write Checkpoint #1
GGS Log Trail
Current Checkpoint (current write position):
Sequence #: 11
RBA: 31609
Timestamp: 2011-01-28 10:02:19.072000
Extract Trail: ./dirdat/ee
Header:
Version = 2
Record Source = A
Type = 4
# Input Checkpoints = 1
# Output Checkpoints = 1
File Information:
Block Size = 2048
Max Blocks = 100
Record Length = 2048
Current Offset = 0
Configuration:
Data Source = 3
Transaction Integrity = 1
Task Type = 0
Status:
Start Time = 2011-01-28 09:58:34
Last Update Time = 2011-01-28 10:02:19
Stop Status = G
Last Result = 400
5) 修改原有相应的参数文件,将拆分出的表从参数文件中删除
6) 增加新的extract,datapump和replicat
--source--------------------------------------------------
GGSCI (win2k364) 15> add ext exef, tranlog, begin now
EXTRACT added.
GGSCI (win2k364) 16> add exttrail ./dirdat/ef, ext exef, megabytes 50
EXTTRAIL added.
GGSCI (win2k364) 17> add ext dpef, exttrailsource ./dirdat/ef
EXTRACT added.
GGSCI (win2k364) 18> add rmttrail ./dirdat/ef, ext dpef, megabytes 50
RMTTRAIL added.
--target--------------------------------------------------
GGSCI (win2k364) 21> add rep rpef, exttrail ./dirdat/ef
REPLICAT added.
7) 修改新增extract进程的检查点
检查点为上面记录的两个检查点:
current read checkpoint and recovery checkpoint
--修改current read checkpoint
GGSCI (win2k364) 30> alter exef extseqno 26, extrba 7090688 [, thread n]
EXTRACT altered.
--修改recovery checkpoint
GGSCI (win2k364) 4> alter exef ioextseqno 26, ioextrba 7088144 [, thread n]
2011-01-28 10:46:18 INFO OGG-00989 WARNING: Unsupported operation. This might cause transactional inconsistency. Modifying iocheckpoint: ioseq = 26 iorba = 7088144.
Are you sure you want to continue? y
EXTRACT altered.
8) 确认所有参数文件正确,启动进程即可
Datapump和replicat拆分方法
下面以拆分replicat为例,datapump拆分方法相同。
1) 停止replicat进程
2) 查看检查点
GGSCI> INFO replicat_name, SHOWCH
REPLICAT RPEF Last Started 2011-01-28 12:30 Status RUNNING
Checkpoint Lag 00:00:00 (updated 00:00:03 ago)
Log Read Checkpoint File ./dirdat/ef000006
2011-01-28 12:47:45.000000 RBA 149258
Current Checkpoint Detail:
Read Checkpoint #1
GGS Log Trail
Startup Checkpoint (starting position in the data source):
Sequence #: 4
RBA: 1845
Timestamp: 2011-01-28 11:32:10.556000
Extract Trail: ./dirdat/ef
Current Checkpoint (position of last record read in the data source):
Sequence #: 6
RBA: 149258
Timestamp: 2011-01-28 12:47:45.000000
Extract Trail: ./dirdat/ef
Header:
Version = 2
Record Source = A
Type = 1
# Input Checkpoints = 1
# Output Checkpoints = 0
File Information:
Block Size = 2048
Max Blocks = 100
Record Length = 2048
Current Offset = 0
Configuration:
Data Source = 0
Transaction Integrity = -1
Task Type = 0
Database Checkpoint:
Checkpoint table = GGS.GGSCHKPT
Key = 746337239 (0x2c7c33d7)
Create Time = 2011-01-28 10:20:18
Status:
Start Time = 2011-01-28 12:30:23
Last Update Time = 2011-01-28 13:25:34
Stop Status = A
Last Result = 400
3) 修改原有参数文件,将拆分出的表删除
4) 新增replicat,和拆分前的进程读取相同的队列文件
5) 修改检查点
6) GGSCI>alter replicat_new extseqno 6, extrba 149258
7) 确认所有参数文件无误,启动进程即可
OGG的Replicat进程性能调优
OGG的Replicat负责将队列文件中的数据读取出来然后按照原来的顺序一条条投递到目标数据库,当数据变化量较大时可能无法跟上队列的产生速度,此时需要进行调优。
OGG提供几个参数用于调节Replicat的性能,如batchsql/ MAXTRANSOPS /GROUPTRANSOPS等。
Replicat的性能问题除去数据变化量的大小,还跟数据库本身执行SQL的速度有关。例如,表是否有主键或者唯一索引,是否有普通索引等,也可以通过这些方面进行调优。
确认Replicat进程运行正常
可以使用stats myrep来查看进程的统计信息,或者使用send myrep,report强制执行一个报告,然后使用view report查看报告里面的各表的统计信息,观察数据变化量是否比较大。
如果replicat长时间不动,可以尝试重启该进程,观察是否正常响应,有可能该进程正在处理一个长事务,会报告正在处理长交易和已经处理了多少条。
Replicat进程的拆分
拆分原则
Replicat如需拆分,按照schema、业务所涉及表范围、表名称前缀、表名等方法进行依次拆分。
拆分进程的评估
可以在extract运行几天后,查看源端extract的报告或者使用stats命令找出变化最为频繁的表,为一个或几个这些大数量级表单独配置投递进程;也可根据数据库定期收集的统计信息将变化较多的表拆分出来;无主键表往往性能较差,对于单个或多个频繁变化的无主键表一般也需要拆分为独立的进程;同时也可以根据Trail产生的速度和实际Replicat的速度来估算需要多少个进程。Repliat的拆分一般很难一次到位,经常需要多次拆分方能达到最佳效果。
进程拆分的目标
进程拆分一般以表为单位,当对某一个进程进行拆分后,其所负责的全部表应当被分布到各个拆分后的进程去,既要保证全部被包含到这些进程,又要确保不会有表被重复包含在多个进程中。例如,对原来一个Schema进行拆分,将其中一个大表拆分为一个单独进程:
拆分之前的Replicat中的map:
map UCR_UIF1.*, target UCR_UIF1.*;
拆分后的两个Replicat中的map:
第一个replicat,只包含拆分出来的大表(需要新加一个replicat,可以copy原有replicat创建的命令和参数,注意替换掉所有与进程名有关的参数):
Map UCR_UEC.TF_O_SELFSERVICE_STATE, target UCR_UEC.TF_O_SELFSERVICE_STATE;
第二个replicat,将该大表排除出去后的所有该schema下的表(可以直接用旧的replicat,只需添加mapexclude参数即可):
MAPEXCLUDE UCR_UEC.TF_O_SELFSERVICE_STAT
map UCR_UEC.*, target UCR_UEC.*;
拆分的步骤
以下为一个replicat进行拆的步骤:
1) 停止所要拆分的replicat;
2) 使用info myrep查看该replicat的检查点,将该检查点所有内容记录下来。如下示例,记住当前的队列号seqno和RBA:
Last Started 2006-01-21 11:40 Status RUNNING
00:00:00 (updated 232:39:41 ago)
C:\GGS\DIRDAT\RT000123
2006-01-11 18:54:33.000000 RBA 4735245
3) 根据评估决定要拆分为几个进程,为每个进程准备创建命令和参数文件,务必要仔细检查,确保其正确性;
4) 执行ggsci命令创建replicat进程,通过edit param myrep编辑参数文件或直接将参数文件放到dirprm目录下;
5) 针对新增的replicat(原有的replicat就不用动了),逐个修改其检查点到原replicat指定的extseqno和extrba。例如,针对上面的示例:
ALTER REPLICAT mynewrep, EXTSEQNO 123, EXTRBA 4735245
6) 检查各replicat的参数和进程信息,确保表已经被散步到各个进程,确保各进程检查点已经与原有replicat保持一致;
7) 启动replicat,观察是否正常。
说明:进程的拆分需要对replicat的检查点进行操作,一定要特别注意,如有可能需求技术支持。
针对单个表的拆分
如果某些表特别大,拆分到一个单独进程依然无法满足要求,可以根据主键将该表拆分为多个进程。
注意:单个表的拆分是依据某个字段的值做hash进行拆分的(默认为主键,但也可以自定义为其它列,前提是该列必须被记录在附加日志里面),所以必须要保证该字段日常是固定不变的。否则,作为拆分依据的这些字段的变化将会引起记录在不同的replicat中处理,有可能各进程之间的不同不会引起数据修改顺序的紊乱,导致replicat出错。
下面是一个拆分后的replicat参数示例,原有进程被拆分为2个进程:
原来的replicat:
MAP sales.acct, TARGET sales.acct;
拆分后的Replicat1(可使用原有的replicat):
MAP sales.acct, TARGET sales.acct, FILTER (@RANGE (1, 2));
拆分后的replcat2(新增):
MAP sales.acct, TARGET sales.acct, FILTER (@RANGE (2, 2));
具体拆分步骤与依据表的拆分相同,不再详述。
单个Replicat进程的调优
OGG提供了几个参数可以对单个的replicat进行调优,如下所示:
1) 使用操作合并 - BATCHSQL
BATCHSQL
该参数可以将类似的SQL放在一起进行批量提交。该参数适用的条件:
ü Replicat进程里面只有一张或者几张表;
ü 这些表没有BLOB/CLOB/LONG等大对象;
ü 这些表的列定义长度在1K以下,例如如果有几个varchar(4000)则不合适;
更多信息请参考OGG的参考手册,如需使用请联系技术支持。
2) 对大交易使用交易分拆 - MAXTRANSOPS
MAXTRANSOPS 1200
将超过指定的记录变化数的交易拆分为多个小一些的交易进行提交,可以不必等待OGG读完全部的交易记录,能够看到检查点的持续前进。
如果有时候Replicat很长时间不往前移动,可以考虑调整该参数。
3) 对于密集小交易使用交易合并 - GROUPTRANSOPS
GROUPTRANSOPS 1200
该参数的作用是将小交易合并为一个大一些的交易,示例是将若干小交易拼在一起直到所有的记录超过500个则将这些交易一起提交。可以有效降低密集小交易带来的密集IO,提升投递性能。对于大交易不起作用,一般性能调优在IO有瓶颈时使用。
数据库及SQL的调优
OGG的复制机制是将源端发生的变化拼装为SQL在目标端重现,其执行的速度与本身sql的速度有关。尤其是对于update和delete,对于执行计划的优化可以极大的提高sql执行的速度。
一个典型的问题是无主键表,当执行一个update或这delete时,无主键表会执行全表扫描去定位一条记录,速度非常慢。因此,当无主键表拆分为一个进程依然无法满足其性能要求时,其最佳方法就是给该表加入主键或唯一索引。
其它对于目标库的sql执行效率优化也同样能提高OGG replicat的性能。
申请技术支持
如经过以上排查仍然无法解决性能问题,可以联系Oracle予以协助。
OGG进程拆分与交易一致性说明
1) 问题描述
国网部分网省对于OGG进程拆分会不会影响交易一致性比较关心,特在此予以说明。
2) 问题说明
OGG的extract/data pump/replicat进程均可以拆分为多个进程同时并发执行,以提高数据复制的性能和处理能力。在Oracle提供的《国家电网网省数据级灾备GoldenGate设计原则》一文中对于进程的拆分原则进行了详细的规定。下面对于各个进程的拆分及其交易一致性的影响进行分析:
ü 主Extract的拆分
在前期提供的OGG链路设计原则中提到,OGG的主Extract进程处理能力较强,一般依据硬件平台不同可以处理约每小时20-40G以上的日志,对于中小型应用无需拆分;而如果数据量较大,确实需要拆分的话,优先选择的是以业务或schema作为拆分的依据,即按照不同的业务所设计的表范围拆分extract进程。
按照业务拆分完成后,各extract进程之间没有交互,相互独立运行,之间可能会有时间差,但是由于各进程是以业务为依据进行拆分的,只会在不同的业务之间产生时间上的短暂差异,并不影响交易的一致性;
如果拆分时打破了业务界限,同一个业务被拆分到了不同的extract进程里面,则出现灾难时可能会出现不同进程之间的数据不平衡。如果确有这种情况,可以通过OGG的logdump工具对最后的几条数据进行检验,人工处理掉这几条不一致的数据。需要说明的是OGG处理日志速度很快,这种几率是非常低的。
总而言之,当extract没有拆分或者按照业务进行拆分,则不会带来交易的不一致性;如果打破了业务范围进行拆分,则有可能会带来交易不一致性,可通过logdump找出不一致的数据进行人工处理,而实际发生的概率是非常低的。
ü Data pump的拆分
Data Pump是跟extract严格一对一的,目前不针对data pump进行拆分,对于它们没有该问题。
ü Replicat的拆分
由于单个replicat相对于extract处理能力较慢,当前大部分网省都对replicat进行了拆分。拆分后的replicat单独运行,相互不进行交互,彼此之间同样可能存在不同步现象,依据extract的拆分情况分析如下:
当extract不拆分或者按照业务拆分时,能够保证交易的一致性,其对应的trail文件所包含数据均是一致的,而被传输到目标端后,replicat虽然彼此之间速度稍有差异(一般在几秒或者零点几秒之内),但是在接管过程中,由于切换需要至少几分钟或者几十分钟时间,此过程中由于trail已经停止增长,各replicat已经完全可以处理完队列中的数据,这样虽然入库时间稍有差异,但最终数据是全部队列中数据均已进入数据库,而队列中数据的交易一致性已经由extract进行保证,不会带来交易不一致;
只有当源端extract没有按照业务拆分时,目标的多个trail可能会有短暂的数据差异,replicat会把这些交易全部提交到目标端。此时可以通过logdump查看队列中最后的几笔交易,确认其scn号是否一致,如确有不一致可以人工进行处理,该情况只在极端情况下出现。
OGG延迟lag较大的说明
1) 问题描述
对于有lag的进程,显示为running,属于正常状态。但是如果lag时间过长,是否还正常,多长时间的范围属于正常。这个需要oracle工程师做出解释。
2) 问题说明
OGG的lag指的是数据复制的延迟,对于不同的进程lag较长时分析如下:
ü 主Extract的lag较大
主Extract负责对于数据库的日志做解析获取数据变化,只要正常运行时其延迟一般都在秒一级左右。如果出现了较大的延迟,首先排查是否存在大交易,可能进程正在处理中;如果没有大交易,但是延迟却非常大,请联系技术支持予以调查。
ü Data Pump的lag较大
Data Pump负责数据的传输,如果出现较大延迟可能是因为网络出现问题,首先可以观察网络带宽是否被占满,也有可能短时间内产生了较多的数据变化。
ü Replicat的lag较大
Replicat负责数据的入库,一般速度相对于主extract和data pump较慢,容易产生较大延迟。当replicat出现延迟后,需要对进程进行调优或者拆分,具体步骤参照本文档上一节。
一般调优完成后,在日常业务状态下应当不存在较大延迟(一般几秒到一分钟以内);当出现批处理时,可以允许一定的延迟,一般以不影响第二天的正常业务为准 – 例如,如果批处理每天早上4点前结束,可以控制延迟在2小时以内。
因此,首先需要确定OGG复制所允许的最大延迟在日常业务和批处理时的目标是什么,然后一旦达不到此目标就要依据上一节的方法进行性能的调优。
GoldenGate 性能优化方法的更多相关文章
- DevExpress ChartControl大数据加载时有哪些性能优化方法
DevExpress ChartControl加载大数据量数据时的性能优化方法有哪些? 关于图表优化,可从以下几个方面解决: 1.关闭不需要的可视化的元素(如LineMarkers, Labels等) ...
- Linux 下网络性能优化方法简析
概述 对于网络的行为,可以简单划分为 3 条路径:1) 发送路径,2) 转发路径,3) 接收路径,而网络性能的优化则可基于这 3 条路径来考虑.由于数据包的转发一般是具备路由功能的设备所关注,在本文中 ...
- HBase性能优化方法总结(转)
本文主要是从HBase应用程序设计与开发的角度,总结几种常用的性能优化方法.有关HBase系统配置级别的优化,这里涉及的不多,这部分可以参考:淘宝Ken Wu同学的博客. 1. 表的设计 1.1 Pr ...
- (摘录)26个ASP.NET常用性能优化方法
数据库访问性能优化 数据库的连接和关闭 访问数据库资源需要创建连接.打开连接和关闭连接几个操作.这些过程需要多次与数据库交换信息以通过身份验证,比较耗费服务器资源. ASP.NET中提供了连接池(Co ...
- HBase性能优化方法总结(一):表的设计
本文主要是从HBase应用程序设计与开发的角度,总结几种常用的性能优化方法.有关HBase系统配置级别的优化,可参考:淘宝Ken Wu同学的博客. 下面是本文总结的第一部分内容:表的设计相关的优化方法 ...
- 26个ASP.NET常用性能优化方法
数据库访问性能优化 数据库的连接和关闭 访问数据库资源需要创建连接.打开连接和关闭连接几个操作.这些过程需要多次与数据库交换信息以通过身份验证,比较耗费服务器资源. ASP.NET中提供了连接池(Co ...
- redmine在linux上的mysql性能优化方法与问题排查方案
iredmine的linux服务器mysql性能优化方法与问题排查方案 问题定位: 客户端工具: 1. 浏览器inspect-tool的network timing工具分析 2. 浏览 ...
- [原创]浅谈H5页面性能优化方法
[原创]浅谈H5页面性能优化方法 前阶段公司H5页面性能测试,其中测试时也发现了一些性能瓶颈问题,接下来我们在来谈谈H5页面性能优化,仅仅是一些常用H5页面性能优化措施,其实和Web页面性能优化思路大 ...
- .NET 性能优化方法总结==转
.NET 性能优化方法总结 目录 目录 1. C#语言方面... 4 1.1 垃圾回收... 4 1.1.1 避免不必要的对象创建... 4 1.1.2 不要使用空析构函数 ★... 4 1.1.3 ...
随机推荐
- Authentication in asp.net
https://docs.microsoft.com/en-us/aspnet/web-forms/overview/older-versions-security/introduction/an-o ...
- iOS开发—在@interface,@implementation和@property中变量的定义
一直搞不懂在OC中变量在@interface和@implementation中有什么区别,定义@property又有什么不同,查了很多资料,总结如下: //ViewController.h @inte ...
- Java8 方法引用与构造器引用,数组引用
package java_8; import org.junit.Test; import java.io.PrintStream; import java.util.Comparator; impo ...
- Excel中将字符串中从右起第n个指定字符替换的方法
比如你想把www.baidu.com.cn中的倒数第二个”.”替换成@,则可以用: =SUBSTITUTE(A1,".","@",LEN(A1)-LEN(SUB ...
- 根据ip地址获取城市
var ip=context.Request.UserHostAddress; string url = "http://int.dpool.sina.com.cn/iplookup/ipl ...
- 监控慢SQL
SELECT G.TARGET || ' ' || S.MACHINE || ' ' || ceil((G.LAST_UPDATE_TIME - G.START_TIME)*86400) FROM ...
- 定时清理clientmqueue目录垃圾文件防止占满磁盘空间
RedHat/CentOS 5.8 默认就有sendmail,而6.4默认没有. 手动清理方法: find /var/spool/clientmqueue/ -type f|xargs rm -f ...
- 优动漫 PAINT 导航窗口面板
导航窗口面板用于管理画布的视图.本节将介绍如何在其中缩放.旋转.翻转画布. 如何使用导航窗口面板 使用[导航窗口]面板便于把握整个画布,以下将为您详细介绍. 什么是[导航窗口]面板 [导航窗口]面板用 ...
- 51nod 1526 分配笔名(Trie树+贪心)
建出Trie树然后求出一个点子树中有多少笔名和真名.然后贪心匹配即可. #include<iostream> #include<cstring> #include<cst ...
- 写入~/.bashrc 文件
1.进入~/.bashrc 文件 vim ~/.bashrc 2.按下I键,然后按Enter键 加入路径 3.按ESC键退出,再按:wq! 保存即可.