日常运维过程中,可能发现OGG同步进程延迟很高;

本篇介绍其中的一种方式。

OGG复制进程,或者说同步进程及通过解析ogg trail文件,输出dml语句,在目标库执行dml操作,那么延迟高可能性其一、执行dml操作效率太低。 本篇不考虑并发过高或其它原因。 本次只考虑是执行update or delete的时候SQL效率执行太差!

导致OGG复制进程延迟很高。

GGSCI > info all

Program     Status      Group       Lag at Chkpt  Time Since Chkpt

MANAGER     RUNNING                                                                                    

REPLICAT    RUNNING     RP10        ::      ::  
延迟说明参考
https://www.onekbit.com/ViewBlog/blog/BID20200408100342

一 、Time Since Checkpoint 过高

指ogg的extract或replicat进程产生最近的一个检查点,再从这个检查点到目前为止有多长时间没有更新了,即最近一个检查点与当前系统时间的时间差。该值可以通过info看到是在不断变化(特别是当处理长会话时,会持续增长,直到处理完该长会话)。

对于复制进程来说,如果Time Since Chkpt 延迟有2个小时,说明这个进程存在2个小时检查点未更新,也就说明有一个或多个组合成的大事务,执行了2个小时,并未执行成功???

正常情况下,OGG遇到异常报错,导致OGG进程中断Time Since Chkpt 50个小时后,解决报错后,启动该进程,一般来说2分内,会执行成功最少一个事务,会写入新的检查点,延迟的50个小时,会自动转换为lag at chkpt 50小时延迟。

异常情况或者说需要优化调整的情况是,启动进程,发现time since chkpt 延迟一直递增,不减少。说明存在事务未执行完毕。

实际遇到的情况1,进程同步4个表,其中一个表很大10G,并且目标端无主键!!!

因此目标端执行一条update sql执行效率非常低。  如何处理???

1.表存在主键
select   *   from   user_cons_columns   
  where   constraint_name   =   (select   constraint_name   from   user_constraints   
              where   table_name   =   'BST_FAVORITE'  and   constraint_type   ='P');   
2.对OGG复制进程添加参数指定主键列
map source_owner.table_name target target_owner.table_name;
添加参数
map source_owner.table_name target target_owner.table_name,keycols(primary_column_name);
3.对于不存在主键的表呢???
select count(*) from xxx; 得到表的数量,如果表很大,不执行最好。
通过dba_tab_columns 根据NUM_DISTINCT 得到最多distinct的列,及选择性好的列。
SQL> select COLUMN_NAME,NUM_NULLS,NUM_DISTINCT,to_char(LAST_ANALYZED,'yyyy-mm-dd') as "date" from dba_tab_columns where owner='cc' and table_name='cc' order by ;
结合表的索引列
select a.uniqueness 索引类型,b.index_name 索引名称,b.column_name 字段 from user_indexes a ,user_ind_columns b
where a.table_name=b.table_name and a.index_name = b.index_name
and a.table_owner=upper('SAPSR3'and  a.table_name='ANLU' order by a.uniqueness desc;
  如果存在索引,并且选择性足够好,虽然不是主键列,但是可以直接使用keycols指定;
  如果不存在索引? 或者索引的选择性不够好,可以新增一个选择性好的索引,随后使用keycols进行指定。  
!!! 缺陷或者风险在于,因为是非主键,及时选择性好,如果存在null值,还是无法使用该索引,OGG 进程对应数据库session 执行SQL还是慢。 但是正常情况下可以解决该问题。
并且存在一个疑问,如果假设源端修改了一条记录,但是选择性好的column_name 在目标端对应2条记录,并且ogg复制进程使用keycols参数指定?  那么目标端是修改更新2条记录? 还是1条记录呢???
后续进行测试。

二、Lag at Chkpt

lag是复制进程处理最后一条记录的操作系统时间和此条记录在trail文件中记录的时间戳的差值,这里需要注意的是lag延迟只有在检查点更新时才会更新,所以这个值不是实时更新的,具有一定的离散性,实际上应该理解成最后一个检查点的最后一条记录与当前系统时间的时间差。

借鉴

 Replicat负责数据的入库,一般速度相对于主extract和data pump较慢,容易产生较大延迟。当replicat出现延迟后,需要对进程进行调优或者拆分,具体步骤参照本文档上一节。一般调优完成后,在日常业务状态下应当不存在较大延迟(一般几秒到一分钟以内);
当出现批处理时,可以允许一定的延迟,一般以不影响第二天的正常业务为准 – 例如,如果批处理每天早上4点前结束,可以控制延迟在2小时以内。 因此,首先需要确定OGG复制所允许的最大延迟在日常业务和批处理时的目标是什么,然后一旦达不到此目标就要依据上上面介绍的方法进行性能的调优。

自我理解:  按照我们实际运维的情况,OGG同步数据也是根据业务要求分级别的。

例如OGG链路1,是用于数据报表生成,那么必须保证业务每天在8点~10点之间是OGG无延迟,否则延迟高哪怕是10分钟,也可能导致报表不准确,因此这种OGG链路的复制 不允许在7~10点存在明显延迟。

例如OGG链路2,用于OGG灾备环境,重要性没那么重要,因此保证OGG复制进程1天内或者3天内数据同步即可。

站在运维的角度,需要结合实际情况考虑OGG重要程度,进行评估。  如果不影响业务,纯粹的延迟可以忽略。

实际遇到延迟50小时。
 本次讲述通过索引加快OGG同步方式;

2.1 定位OGG复制进程在oracle数据库中的Session

$ps -ef|grep RP10
PID
20 RP10 ······
$ps -ef|grep 20
PID
60864 LOCAL=NO [OGG Session process]
SQL> select s.sid,s.serial#,sql_id,p.program from v$process p,v$session s where p.addr=s.paddr and p.spid=;

       SID    SERIAL# SQL_ID         PROGRAM
------------------------------------------------
2j664 oracle@cc (TNS V1-V3)

2.2 定位造成OGG复制进程延迟过高的SQL

通过ash视图,查询1天内这个OGG进程 session ,都在执行什么sql ,event信息。 ash视图间隔1s采样 active session 1次。因此捕捉到的次数越多,说明消耗花费的时间越多。
select sql_id,event,BLOCKING_SESSION,CURRENT_OBJ#,count(*) from v$active_session_history where SAMPLE_TIME>sysdate- and SESSION_ID= and SESSION_SERIAL#=37851
group by sql_id,event,BLOCKING_SESSION,CURRENT_OBJ# order by ,;
SQL_ID EVENT BLOCKING_SESSION CURRENT_OBJ# COUNT(*)
------------- ---------------------------------------------------------------- ---------------- ------------ ----------
1n7zz8wb86jpw
088mh1tws6wtm -
2jt8ttg6b42b4
9y2087cvvr4r9
1n7zz8wb86jpw -
2cc4 -
9y2087ccc9 -
rows selected. select * from table(dbms_xplan.display_cursor('2ccb4'));
SQL> select * from table(dbms_xplan.display_cursor('9ycc'));
PLAN_TABLE_OUTPUT
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
SQL_ID xx, child number
-------------------------------------
DELETE FROM "W"."DT" WHERE "U_ID"
= :b0 AND 多个列 ······ AND "C_SORT"
= :b18 AND ROWNUM =
PLAN_TABLE_OUTPUT
----------------------------------------------------------------------------------------------------
Plan hash value:
----------------------------------------------------------------------------------------------------
| Id | Operation | Name | Rows | Bytes | Cost (%CPU)| Time |
----------------------------------------------------------------------------------------------------
| | DELETE STATEMENT | | | | ()| |
| | DELETE | DT | | | | |
|* | COUNT STOPKEY | | | | | |
|* | TABLE ACCESS FULL| DT | | | ()| :: |
----------------------------------------------------------------------------------------------------
PLAN_TABLE_OUTPUT
----------------------------------------------------------------------------------------------------
Predicate Information (identified by operation id):
---------------------------------------------------
- filter(ROWNUM=)
- filter(("U_ID"=:B0 AND 多个列······ "O_SORT"=TO_NUMBER(:B18))) rows selected. 距离,两个SQL 同一个表,都是delete操作,几乎相同。 执行几乎全表扫描,表10G,当然慢了,对吧? 执行删除1条记录,需要访问10G的数据。。。不慢才怪。

2.3 创建索引,加快OGG进程同步速度。

查询表相关索引,不存在。
select index_owner,index_name,table_name,column_name,column_position from dba_ind_columns where table_name='DT' order by index_name,column_position;
null 查询列的选择性
select * from dba_tab_col_statistics where table_name='DT' order by column_name;
```````
OWNER TABLE_NAME COLUMN_NAME NUM_DISTINCT LOW_VALUE
------------------------------ ------------------------------ ------------------------------ ------------ ----------------------------------------------------------------
HIGH_VALUE DENSITY NUM_NULLS NUM_BUCKETS LAST_ANAL SAMPLE_SIZE GLO USE AVG_COL_LEN HISTOGRAM
---------------------------------------------------------------- ---------- ---------- ----------- --------- ----------- --- --- ----------- ---------------
W DT U_ID
-JUL- YES NO NONE
······
rows selected. SQL> select count(*) from "W"."DT";
COUNT(*)
----------
724643
GGSCI > stop Ogg_process

!注意,本次知道OGG对应是灾备,不存在大量相关业务,慎用no_invalidate>false
exec dbms_stats.gather_table_stats(ownname=>'W',tabname=>'DT',cascade=>true,degree=>,estimate_percent=>,no_invalidate=>false) ;

再次查询
OWNER TABLE_NAME COLUMN_NAME NUM_DISTINCT LOW_VALUE
------------------------------ ------------------------------ ------------------------------ ------------ ----------------------------------------------------------------
HIGH_VALUE DENSITY NUM_NULLS NUM_BUCKETS LAST_ANAL SAMPLE_SIZE GLO USE AVG_COL_LEN HISTOGRAM
---------------------------------------------------------------- ---------- ---------- ----------- --------- ----------- --- --- ----------- ---------------
W                           DT                     U_ID      59346  

 .   -AUG-  YES NO  NONE  
rows selected.
exec dbms_stats.gather_table_stats(ownname=>'W',tabname=>'DT',cascade=>true,degree=>8,estimate_percent=>10,no_invalidate=>false) ;

查询列的选择性
select OWNER,TABLE_NAME,COLUMN_NAME,NUM_DISTINCT,NUM_NULLS,LAST_ANALYZED from dba_tab_col_statistics where table_name='DT' order by NUM_DISTINCT; 
OWNER TABLE_NAME COLUMN_NAME NUM_DISTINCT NUM_NULLS LAST_ANAL ------------------------------ ------------------------------ ------------------------------ ------------ ----------
xx O_SORT -AUG-20
xx U_ID -AUG-
rows selected. select count(*) from ( select distinct U_ID,O_SORT from xx.xx);
COUNT(*)
---------- create index xx.xxon xx.cc(U_ID,O_SORT) parallel ;
alter index xx.xx parallel ;
exec dbms_stats.gather_table_stats(ownname=>'W',tabname=>'DT',cascade=>true,degree=>8,estimate_percent=>10,no_invalidate=>false) ;

GGSCI (obcdb36) > start ogg_process 
SQL> select * from table(dbms_xplan.display_cursor('2jt8ttg6b42b4'));
----------------------------------------------------------------------------------

Plan hash value:
| Id | Operation | Name | Rows | Bytes | Cost (%CPU)| Time |
--------------------------------------------------------------------------------------------------------------
| | DELETE STATEMENT | | | | ()| |
| | DELETE | cc| | | | |
|* | COUNT STOPKEY | | | | | |
|* | TABLE ACCESS BY INDEX ROWID| cc| | | ()| :: |
|* | INDEX RANGE SCAN | IND_ID_SORT | | | ()| :: 至此,OGG使用索引加快了数据同步delete速度。

OGG复制进程延迟高,优化方法一(使用索引)的更多相关文章

  1. OGG复制进程延迟高,优化方法二(存在索引),SQL选择不好的索引

    https://www.cnblogs.com/lvcha001/p/13469500.html 接前序,本次场景中有索引,但是OGG复制进程使用了低效率的索引?  类似SQL使用低效索引,如何让Or ...

  2. OGG复制进程延迟不断增长

    1.注意通过进程查找sql_id时,进程号要查询两次 2.杀进程的连接 https://www.cnblogs.com/kerrycode/p/4034231.html 参考资料 1.https:// ...

  3. MySQL性能优化方法三:索引优化

    原文链接:http://isky000.com/database/mysql-performance-tuning-index 大家都知道索引对于数据访问的性能有非常关键的作用,都知道索引可以提高数据 ...

  4. OGG投递进程报错无法open文件,无法正常投递

    1.1现象 之前有个客户遇到一个问题,OGG同步数据链路,突然有一天网络出现问题,导致OGG投递进程无法正常投递,无法写入目标端的该文件. 猜测是由于网络丢包等原因导致文件损坏,无法正常open,re ...

  5. OGG复制同步,提示字段长度不够ORA-01704

    日常运维OGG的环境中,如果遇到复制进程报错,提示字段长度不足如何处理??? 正常情况下,字段长度不足,但是未达到Oracle的限制时,可以对字段进行扩大限制满足目的. 实际环境中,遇到源端GBK,目 ...

  6. Linux下java进程CPU占用率高分析方法

    Linux下java进程CPU占用率高分析方法 在工作当中,肯定会遇到由代码所导致的高CPU耗用以及内存溢出的情况.这种情况发生时,我们怎么去找出原因并解决. 一般解决方法是通过top命令找出消耗资源 ...

  7. php-fpm进程数优化方法

    原文地址:https://www.douban.com/note/315222037/ 背景最近将Wordpress迁移至阿里云.由于自己的服务器是云服务器,硬盘和内存都比较小,所以内存经常不够使,通 ...

  8. mysql优化连接数防止访问量过高的方法

    这篇文章主要介绍了mysql优化连接数防止访问量过高的方法,需要的朋友可以参考下 很多开发人员都会遇见”MySQL: ERROR 1040: Too many connections”的异常情况,造成 ...

  9. (转)Linux下java进程CPU占用率高-分析方法

    Linux下java进程CPU占用率高-分析方法 原文:http://itindex.net/detail/47420-linux-java-%E8%BF%9B%E7%A8%8B?utm_source ...

随机推荐

  1. Elasticsearch从入门到放弃:再聊搜索

    在前文中我们曾经聊过搜索文档的方法,Elasticsearch 一般适用于读多写少的场景,因此我们需要更多的关注读操作. Elasticsearch 提供的 Search API 可以分为 URI S ...

  2. P.SDA1.DEV - 一个没有服务器的图床

    图床特色 P.SDA1.DEV的愿景是为大家提供一个免费.长期稳定外链分享图片的选择. P.SDA1.DEV的主要特点有: 完全建构在Serverless云服务上,致力于提供(墙外)可用性99.9%的 ...

  3. elementUI form表单验证不通过的原因

    <el-form :model="form" :rules="rules"> <el-form-item prop="input&q ...

  4. Monster Audio 使用教程 (七) 防止声音过大,出现爆音

    有用户反映,如果音乐音量过大,会出现爆音. 这其实是音频信号过载了.只要最后输出的音量超过0db,就会出现爆音,这是数字音频都应该注意的问题. 所以,为了解决这个问题,限制器就出现了,它能把音频信号压 ...

  5. jmeter接口测试 -- Base64加密(函数助手添加自定义函数)

    图片转码 base64 致谢参考博客: https://www.cnblogs.com/qiaoyeye/p/7218770.html https://www.cnblogs.com/lasdaybg ...

  6. 台账建立和sqlite数据库的数据导入和导入问题

    principle platform command starts with "."; whiel sql command doesn't starts  with ". ...

  7. 2018年5月15日的sqlite安装和数据库记录

    sqlite数据库安装在d:\sqlite_files运行sqlite3查看数据表,命令,.tables 数据库文件 d:\sqlite_files\device.db create table de ...

  8. Elasticsearch及相关插件的安装

    Elasticsearch及相关插件的安装 1.安装Elasticsearch并启动服务 2.安装第三方插件 2.1.Head插件 是Elasticsearch的一个集群管理工具,可以通过它来查看和搜 ...

  9. 深度学习论文翻译解析(十一):OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks

    论文标题:OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks 标题翻译: ...

  10. 关于if后有无else谜题

    在自定义函数中 for(i=1;i<=6;i++) { if(a%i==0) return 0; else return 1; } 意思是,如果有一个除不尽就返回零,有一个除尽会立刻返回一. 如 ...