Db2数据库中常见的堵塞问题分析与处理方法
db2 数据库堵塞怎么办
作为一个数据库管理员,工作中经常会遇到的一个问题:当数据库出现故障的情况下,如何快速定位问题和找到解决方案。尤其是在运维非常重要系统的时候,解决问题恢复服务是分秒必争。db2 作为广泛使用的商业数据库,内部提供了众多方法论和诊断工具等来协助分析问题。然而当问题真正发生的时候,数据库管理员还是会手忙脚乱,不知道从何处下手。如果着手分析的方向发生了错误,时间更是浪费严重,问题得不到及时解决,甚至有可能采取了错误的措施,导致更严重的后果。
导致数据库堵塞原因有很多,即便是现在总结,也仅仅是总结曾经遇到过的情况。即便是曾经遇到的问题重复发生的时候,快速找到源头并处理也是很大的挑战。这个时候脑子里想着方法论,手上敲着各种诊断工具的命令,从输出的结果再继续分析处理。整个过程即便是非常有经验的数据库管理员也需要很多操作时间。如果可以针对常见的堵塞问题,开发出一个自动分析的工具,直接展示堵塞原因和处理语句,就能够大大加快处理的速度。这也是一直以来数据库管理员亟需的工具。然而因为导致数据库堵塞原因的多样性和未知性,写这样一个工具并不容易,所以市场上并没有这样的成熟工具。
退而求其次,仅仅针对常见的堵塞问题,是可以开发出这样的一键检查处理工具的。所以我开发了一个简单的 python 脚本,帮助分析日常工作中的遇到的数据库问题。后续也需要慢慢加强和改进。最重要的是,写这个文章是为了总结几种 db2 数据库常见的堵塞问题并提供解决方案。
开发这个工具的时候,我联想到在以前遇到过数据库堵塞问题的时候,数据库甚至都没有办法连接,新请求也会被堵塞住。db2top 等命令完全出不来结果。只有 db2pd 这样的工具能够使用。db2pd 工具是从内存直接获取信息,不需要连接数据库,属于轻量级的诊断工具。所以在数据库发生堵塞,数据库无法连接的情况下,db2pd 是最好的选择。
db2 数据库堵塞怎么办?首先是快速定位原因,使用 db2pd 将常见的堵塞现象分析一遍。如果定位到是曾经碰到的问题,那就比较好办了,赶紧实行对应的解决方案。如果不是常见的问题,尽量收集足够多的信息,例如 stack 等,然后重启实例恢复数据库,但是这样可能堵塞问题还是会重现,不能根本解决问题。
db2 数据库常见堵塞问题
db2 数据库发生性能缓慢或者堵塞的最常见现象是数据库活动会话激增,数据库相关命令和语句运行缓慢。导致性能缓慢的原因有很多,最常见的可能是出现锁问题。一个长 sql 堵塞其他相关 sql,导致短时间并发 sql 变多,系统变慢。也有可能是出现了大 sql,耗尽系统资源等。如下图所示,我归纳列举了一些常见的堵塞原因,整理了相关问题解决的方法。
图 1. db2 常见堵塞问题分析
图中所列的这些问题都可以通过 db2pd 工具获取信息来分析。我也在一键检查分析工具里面包含了这些场景。
锁链分析和处理
db2 的锁机制与其他数据库差异很大,锁问题也是在数据库运维中重点关注的对象。锁是用来控制事务的一致性和并发性的。db2 的隔离级别和其他数据库差不多,都是解决脏读,幻读,不可重复读等问题。然而不同于其他数据库,db2 的锁是存放在内存里的。数据库的 locklist 参数控制这个内存的大小。如果出现某个实务需要加的锁特别多,可能会导致这个内存里放不下,触发锁升级。锁升级更容易引起堵塞。
发现锁堵塞
一个正常运行的数据库突然出现锁问题通常有两种情况: 一种是运行了不常运行的 sql 事务,堵塞了正常的交易。一种是正常的交易事务突然性能有问题,例如查询计划改变。不管是哪种情况,最紧要的是将源头找出来。db2top 工具有一个非常好用的功能,就是查看锁链的信息。
清单 1. db2top 查看锁链
[\]16:01:41,refresh=0secs(0.008) locks aix,member=[4/4],db2gdpc:chgmdb [d=y,a=n,e=n,p=all] [qp=off] +---------------------------------------------------------------------------------+ | | | blocker->blocked agent chain | | --------------------------------------------------------------------------- | | 1546->64481->1309 | | | | | | | | | | | | | | | | | | | | | | | | press any key to resume... | +---------------------------------------------------------------------------------+ quit: q, help: h lock=49 (entries=49), l: lock chain db2top 2
在这个输出里面,1546 这个应用是锁的持有者,其他都是等待者。下一步就是分析 1546 在执行什么语句,是否需要杀,是否需要优化。
然而对于已经堵塞的 db2 数据库,db2top 可能根本打不开。这个时候就需要 db2pd 工具来查看锁等待的信息。
清单 2. db2pd 查看锁等待
agdpcmb1:/home/db2gdpc$db2pd -d chgmdb -wlocks ksh: there is not enough space in the file system. database member 0 -- database chgmdb -- active -- up 19 days 01:18:29 -- date2018-02-27- 16.52.48.487758 locks being waited on : apphandl [nod-index] tranhdl lockname type mode conv sts cooredu appname authid appid 1546 [000-01546] 39 00030418000000000000000452 rowlock ..x g 176565 db2bp db2gdpc *n0.db2gdpc.180430224639 1309 [000-01309] 40 00030418000000000000000452 rowlock ..x w 323302 db2bp db2gdpc *n0.db2gdpc.180430224640 1546 [000-01546] 39 00030418000000000000000054 tablelock .ix g 176565 db2bp db2gdpc *n0.db2gdpc.180430224639 1309 [000-01309] 40 00030418000000000000000054 tablelock .ix g 323302 db2bp db2gdpc *n0.db2gdpc.180430224640 64481 [000-64481] 3 00030418000000000000000054 tablelock ..s w 394879 db2bp db2gdpc *n0.db2gdpc.180430224637
在这个 db2pd 的输出里面,第八列 sts 就是持有者(g)和等待者(w)。第四列 lockname 是对应的锁。需要综合这两个信息,才能知道应用的等待关系。这里分析锁等待关系并不是非常直观。所以我在开发的工具里结合 lockname 和锁状态信息组织出锁链关系,然后展示出来。
分析锁问题
基于上述信息,找到锁的持有者源头,现在还需要知道持有者在运行什么语句。这个可以通过 db2pd 的 application 选项和 dynamic 选项综合分析出当前正在执行和上次执行的语句。
清单 3. db2pd 查看 application
agdpcmb1:/home/db2gdpc$db2pd -d chgmdb -application 1546 database member 0 -- database chgmdb -- active -- up 20 days 18:31:55 -- date 2018-03-01- 10.06.14.595025 applications: address apphandl [nod-index] numagents cooreduid status c- anchid c-stmtuid l-anchid l-stmtuid appid workloadid workloadoccid collectactdata collectactpartition collectsectionactuals 0x0a00020042ca0080 1546 [000-1546] 1 147263 uow-waiting 0 0 341 2 *n0.db2gdpc.180504025324 1 37352 n c n external connection attributes address apphandl [nod-index] clientipaddress encryptionlvl systemauthid 0x0a00020042ca0080 1546 [000-1546] n/a none db2gdpc trusted connection attributes address apphandl [nod-index] trustedcontext conntrusttype roleinherited 0x0a00020042ca0080 1546 [000-1546] n/a non trusted n/a autonomous routine connections address apphandl [nod-index] status autonomous routine handl [nod- index] status anonymous block connections address apphandl [nod-index] status anonymous block handl [nod-index] status
在 db2pd 工具的 application 输出里面,c-anchid 和 c-stmtuid 结合起来指向当前正在运行的语句。l-anchid 和 l-stmtuid 结合起来指向上一次执行的语句。要获得详细的语句,需要从 dynamic cache 里找到。图中 c-anchid 和 c-stmtuid 都是 0,也就是当前应用没有执行任何语句。而 l-anchid 和 l-stmtuid 是 341 和 2,上一次执行的语句是可以获取到的。
清单 4. db2pd 查看动态语句
agdpcmb1:/home/db2gdpc$db2pd -d chgmdb -dynamic anch=341 database member 0 -- database chgmdb -- active -- up 20 days 19:16:16 -- date 2018-03-01- 10.50.35.125266 dynamic cache: current memory used 1700359 total heap size 130191196 cache overflow flag 0 number of references 83506 number of statement inserts 74444 number of statement deletes 74408 number of variation inserts 48 number of statements 36 dynamic sql statements: address anchid stmtuid numenv numvar numref numexe text 0x0a0005024e0ee9a0 341 2 1 1 3 3 select * from t with rr dynamic sql environments: address anchid stmtuid envid iso qopt blk 0x0a0005024e0ee520 341 2 2 cs 5 b dynamic sql variations: address anchid stmtuid envid varid numref typ lockname val insert time sect size num copies 0x0a0005024e0bee60 341 2 2 1 2 6 000000020000000200012aa0d6 y 2018-03-01-09.06.10.891027 6056 0
基于 l-anchid 为 341 去查 dynamic cache,可以看到 stmtuid 为 2 的 sql 语句是"select * from t with rr"。至此就得到了锁的持有者正在运行的语句或者最后运行的语句是什么。这样就可以和开发一起分析这个问题是什么原因导致的。
处理锁问题
通常异常出现锁问题的原因分两种:
- 不常见的 sql:当前 sql 不是业务常用 sql,例如新上线的功能,管理节点发起的维护 sql,或者个人后台发起的 sql 等。因为测试不充分,没有评估好对生产业务的影响。这种情况下一般选择先杀掉,并且控制不要再次发起,等优化完再上线。
- 常见 sql 突然变慢:例如执行计划发生变化,导致 sql 变慢,从而促发了锁竞争的问题。这种情况仅仅杀 sql 可能是不管用的,因为 sql 还会被调用起来。这时需要立刻获取 sql 的查询计划,抓紧时间调优。例如运行 runstats,创建必要的索引等方式。
我在 db2 堵塞一键检查工具里面对上述操作进行了自动化分析和处理。
清单 5. 一键检查工具分析锁问题
agdpcmb1:/home/db2gdpc$python db2_check_hang_105.py chgmdb lock ############################################################################### # lock analyze # ############################################################################### #the lock chains are: ['15412', '15657'] ['15412', '19008'] #the root lock holders are: ['15412'] #the stmt for applicaiton 15412 is: the current stmt is:null . the last stmt is: select * from t with rr . #you can force the holders by: db2 "force application (15412) "
工具在分析锁问题的时候,首先展示锁链并排序,然后找到所有锁链中锁持有者执行的 sql 语句,并将需要快速杀应用的语句打印出来,便于快速决策是否调用。
latch 链分析和处理
db2 的 latch 是一个教科书里没有详细阐述也无法详细枚举所有 latch 种类的机制。latch 简单来说就是线程锁。它和 db2 的锁不一样但是堵塞时的现象差不多,都是一个线程获取到了 latch,堵塞了其他需要这个 latch 的线程。latch 促发的问题可能还要严重。lock 通过杀掉持有者的 apphdl 还可以释放,latch 的持有者可能并不是应用,可能是 db2 的其他内部线程,是没有开放接口去杀的。这种情况下只有等待或者重启实例。
latch 问题可能是数据库管理员最头疼的问题。因为通常这种问题牵涉的是 db2 开发的内部机制,属于未公开的信息。基本上这个时候能做的只是想办法解开 latch,收集信息给 ibm 支持团队分析原因。
查看 latch 堵塞
处理这类问题首先是监控是否发生了 latch 等待:
清单 6. db2pd 查看 latch 等待
agdpcmb1:/home/db2gdpc$db2pd -latches database member 0 -- active -- up 30 days 00:11:52 -- date 2017-12-01-17.11.29.074912 latches: address holder waiter filename loc latchtype holdcount 0x0780000004f00478 1553 0 ../include/sqle_workload_disp.h 1391 sqlo_lt_sqewldispatcher__m_tunerlatch 1 0x0a00050000069d20 33105 589675 sqlpgresspace.c 542 sqlo_lt_sqlp_dbcb__add_logspace_sem 1 0x0a00050000069d20 33105 528805 sqlpgresspace.c 542 sqlo_lt_sqlp_dbcb__add_logspace_sem 1 latch waiters with no holders: address holder waiter filename loc latchtype 0x0a0005059594a800 0 529319 /view/db2_v105fp7_aix64_s151221/vbs/engn/include/sqlpt_inlines.h 2186 sqlo_lt_sqlb_bpd__bpdlatch_sx 0x0a00050225daa938 0 415209 /view/db2_v105fp7_aix64_s151221/vbs/engn/include/sqlpt_inlines.h 2186 sqlo_lt_sqlb_bpd__bpdlatch_sx
图中的输出信息分两个主要部分。第一部分是有持有者的 latch 信息,包含有等待的和没等待的。没有等待者的持有者是不需要关心的。第二部分是找不到持有者但是有等待者的 latch 信息。相对第一部分,这个是因为持有者在内部开发的代码里没有显示给监控,并不是真的没有持有者。解读下这个输出里面的内容:
- address:latch 地址,唯一定位一个 latch 对象。
- holder:latch 的持有者。这是个 eduid。
- waiter:latch 的等待者。这是个 eduid。
- filename:获取这个 latch 的源文件名。
- loc:源文件里的代码位置。
- latchtype:latch 名称。
- holdcount:持有数量。
上面这个例子包含三种场景:
- latch 地址为 0x0780000004f00478 的持有者是 1553,等待者是 0 也就是没有等待者。这是一个正常的现象,不需要去关注。
- latch 地址为 0x0a00050000069d20 的持有者是 33105,等待者有 589675 和 528805。这是一个典型的堵塞现象。33105 堵塞了 589675 和 528805。这个 latch 的名称是 sqlo_lt_sqlp_dbcb__add_logspace_sem。
- latch 地址为 0x0a0005059594a800 和 0x0a00050225daa938 没有显示持有者(显示持有者的代价太高,所以 db2 内部屏蔽了),但是分别有等待者 529319 和 415209。这个 latch 的名称是 sqlo_lt_sqlb_bpd__bpdlatch_sx。
latch 的等待信息是瞬间抓取的,如果想要确定是否存在堵塞现象,需要多抓一次 latch 信息来确认。在确认了 latch 堵塞问题的情况下,需要抓取 stack 来获取详细信息给 ibm 的支持开 case。latch 问题的处理里面 stack 是关键信息。发生竞争的 latch 持有者和等待者都需要抓取 stack。抓取 stack 的语句是:db2pd -stack <eduid>
。 这里的 eduid 输入就是 latch 选项输出里面的 holder 和 waiter。
分析 latch 堵塞对象
如果是有持有者的堵塞现象,可以检查持有者是什么 edu,是否对应到 application,然后确定能否通过解决持有者的方式释放这个堵塞问题。
清单 7. db2pd 查看 edu 等待
aagdpcmb1:/home/db2gdpc$db2pd -edus database member 0 -- active -- up 21 days 00:00:06 -- date 2018-03-01-15.26.59.059962 list of all edus for database member 0 db2sysc pid: 17760262 db2wdog pid: 34930696 db2acd pid: 45875450 edu id tid kernel tid edu name usr (s) sys (s) =================================================================================================================== 23561 23561 67373307 db2agnta (xtcur2) 0 0.232340 0.039394 577794 577794 130024209 db2agnta (chgmdb) 0 0.475758 0.083151 526009 526009 21563441 db2loggr (cmpdb) 0 28.628607 4.885121 525752 525752 39125599 db2logmgr.0 (cmpdb) 0 10.656058 6.702469 525495 525495 58590885 db2castructevent sa (cmpdb) 0 0.000232 0.000020 ……
通过 db2pd 工具能够查看 eduid 对应的 edu name 是什么。如果 edu name 是 db2agent,那么就能对应到一个 application。这个时候查看对应数据库的 applications 输出,就找到 cooreduid 对应的 apphandl 了。
清单 8. db2pd 查看 application
agdpcmb1:/home/db2gdpc$db2pd -d chgmdb -applications database member 0 -- database chgmdb -- active -- up 20 days 23:56:31 -- date 2018-03-01- 15.30.50.066987 applications: address apphandl [nod-index] numagents cooreduid status c- anchid c-stmtuid l-anchid l-stmtuid appid workloadid workloadoccid collectactdata collectactpartition collectsectionactuals 0x0a00020021180080 3842 [000-03842] 1 82548 connectcompleted 0 0 0 0 *n0.db2.180208083025 0 0 n c n 0x0780000008b00080 3822 [000-03822] 1 72268 connectcompleted 0 0 0 0 *n0.db2.180208083005 0 0 n c n ……
找到了 apphandl,就可以查看到对应的 sql 语句是什么,知道这个应用在做什么。方法分析锁问题的时候找 sql 一样。最后尝试"db2 force application (<apphandl>)"
,运气好的话这个堵塞问题可能就暂时解决了。
处理 latch 堵塞问题
获取到 latch 名称后,首先去 ibm 网站查找这个 latch 的关键词,看看有没有已知的问题现象一致,有没有解决办法。最后一定要开 case 找 ibm 官方支持,找到真正原因,避免再出现这样的问题。我在一键检查工具里面按照这个思路处理 latch 问题。
清单 9. 一键检查工具分析 latch 问题
agdpcmb1:/home/db2gdpc$python db2_check_hang_105.py chgmdb latch ############################################################################### # latch analyse # ############################################################################### ############### collect contentions on address: ############## address: 0x0a00050000069d20 holder: ['33105'] waiter: ['589675', '528805'] latchtype: sqlo_lt_sqlp_dbcb__add_logspace_sem ####start analyse contentions: ####collect holder information: #collect holder info: 33105 the apphdl for tid 33105 is 0 the last stmt is: no stmt found for 0. no edu found for eduid: 0 #you can force this holder by: ####collect waiter information: #collect waiter info: 589675 the apphdl for tid 589675 is 0 the last stmt is: no stmt found for 0. no edu found for eduid: 0 #collect waiter info: 528805 the apphdl for tid 528805 is 0 the last stmt is: no stmt found for 0. no edu found for eduid: 0 ############### collect contentions on address: ############## address: 0x0a0005059594a800 holder: ['0'] waiter: ['529319'] latchtype: sqlo_lt_sqlb_bpd__bpdlatch_sx ####start analyse contentions: ####no holder on this address, collect stack and sanpshot for waiters: #collect waiter info: 529319 the apphdl for tid 529319 is 0 the last stmt is: no stmt found for 0. no edu found for eduid: 0 ############### collect contentions on address: ############## address: 0x0a00050225daa938 holder: ['0'] waiter: ['415209'] latchtype: sqlo_lt_sqlb_bpd__bpdlatch_sx ####start analyse contentions: ####no holder on this address, collect stack and sanpshot for waiters: #collect waiter info: 415209 the apphdl for tid 415209 is 0 the last stmt is: no stmt found for 0. no edu found for eduid: 0
这个工具会对每个出现堵塞的 latch 地址展开 latch 链,然后对相关 eduid 收集 stack,最后尝试找到这些 eduid 对应的 apphandl 和 sql 语句。如果持有者对应到 apphandl,那么也把处理的 force 语句打印出来。
查看当前运行时间长的 sql 语句
db2 出现运行缓慢如果不是因为锁或者 latch 的等待问题。这时就需要看看当前哪些 sql 运行的时间比较长。我会挑选 10 条运行时间最长的 sql 来分析。
清单 10. 查看 activestatements
agdpcmb1:/home/db2gdpc$db2pd -d chgmdb -activestatements database member 0 -- database chgmdb -- active -- up 21 days 00:37:29 -- date 2018-03-01- 16.11.48.180193 active statement list: address apphandl [nod-index] uow-id stmtid anchid stmtuid effiso efflocktout effdegree entrytime starttime lastreftime 0x0a0005024e322860 15657 [000-15657] 5 1 548 1 1 3000 0 thu mar 1 16:11:38 thu mar 1 16:11:38 thu mar 1 16:11:38 0x0a0005024df5ce60 14933 [000-14933] 2 1 317 1 1 3000 0 thu mar 1 16:00:33 thu mar 1 16:00:33 thu mar 1 16:00:33 0x0a0005024e147cc0 19008 [000-19008] 6 1 365 2 1 3000 0 thu mar 1 16:11:42 thu mar 1 16:11:42 thu mar 1 16:11:42
这个输出里面需要关注的是 starttime,按照这个排序就可以找到运行时间最长的语句了。和分析锁堵塞问题里的方法一样。这里的 anchid 和 stmtuid 可以在 dynamic cache 里面定位到唯一的 sql 语句。这个在一键检查工具里面是自动收集展示的。
清单 11. 一键检查工具查看 top sql
agdpcmb1:/home/db2gdpc$python db2_check_hang_105.py chgmdb stmt ############################################################################### # show top 10 running stmt # ############################################################################### #check active statements for: chgmdb the apphdl is: 14933 , started at : thu mar 1 16:00:33 select id,substr(home_host,:l0 ,:l1 ) as home_host,substr(current_host,:l2 ,:l3 ) as current_host,state,alert from sysibmadm.db2_member the apphdl is: 15657 , started at : thu mar 1 16:11:38 update t set c1 =:l0 the apphdl is: 19008 , started at : thu mar 1 16:11:42 delete from t
这个工具基于执行时间排序,只抓取前 10 的 sql 语句。获得这些信息后就可以分析有没有异常。
查看热表和相关 sql 语句
db2 运行缓慢不可忽视的诱因之一就是存在热点数据。通常热点数据会伴随锁等待和 latch 等待等现象,但不是完全堵塞的状态。现象就是热点表相关的 sql 会比正常情况下慢很多,从而导致整个数据库运行缓慢。
获取热点表
当数据库出现缓慢的时候,如果想要从热点数据的角度去分析问题,找到对应的表,然后再找到对应的热点语句,就可以分析是否存在问题,是否需要优化。db2top 首页键入 t 可以进入 tables 的监控界面。在这个界面里能看到 delta rowsread 和 delta rowswritten 等信息,从而获取当前热点表信息。
清单 12. db2top 查看热点表
[/]15:52:03,refresh=2secs(0.003) tables aix,member=[4/4],db2gdpc:chgmdb [d=y,a=n,e=n,p=all] [qp=off] table delta delta name rowsread/s rowswritten/s ---------------------------------------- -------------- -------------- db2gdpc.test 0 0 sysibm.syscolumns 0 0 sysibm.syscontextattributes 0 0 sysibm.syscontexts 0 0 sysibm.sysdbauth 0 0 sysibm.syseventmonitors 0 0 sysibm.syseventtables 0 0 sysibm.syshistogramtemplatebins 0 0 sysibm.syshistogramtemplates 0 0 sysibm.syshistogramtemplateuse 0 0 sysibm.sysindexes 0 0 sysibm.sysnodegroups 0 0 sysibm.sysplan 0 0 sysibm.sysroleauth 0 0 sysibm.sysroutines 0 0 sysibm.sysserviceclasses 0 0 sysibm.sysstogroups 0 0 quit: q, help: h l: top temp storage consumers db2top 2.
db2top 最强的地方就是能够自动获取两次捕获信息之间的差异并计算出 delta 值展示出来。其他监控工具只能获取当前累计值,需要手工计算和排序。然而就像之前所担心的那样,db2top 在数据库缓慢的情况下不一定能工作。这个时候只有 db2pd 工具能够正常使用。db2pd 的 tcbstats 选项可以展示表和索引的累计访问信息。
清单 13. db2pd 查看表信息
agdpcmb1:/home/db2gdpc$db2pd -d chgmdb -tcbstats nocatalog database member 0 -- database chgmdb -- active -- up 0 days 01:27:49 -- date 2018-03-07- 15.58.13.184798 tcb table information: address tbspaceid tableid partid mastertbs mastertab tablename schemanm objclass datasize lfsize lobsize xmlsize ixreqrebld 0x0a0005024ddddab0 2 -1 n/a 2 -1 internal sysibm perm 1 0 0 0 no 0x0a0005024dcf9430 3 1540 n/a 3 1540 locks db2gdpc perm 1787 0 64 0 no 0x0a0005024dcf6eb0 3 -1 n/a 3 -1 internal sysibm perm 7 0 0 0 no 0x0a0005024ddde8b0 2 5 n/a 2 5 test db2gdpc perm 8013 0 0 0 no tcb table stats: address tablename schemanm scans udi rtsudi pgreorgs nochgupdts reads fscrupdates inserts updates deletes ovflreads ovflcrtes pgdictscrt cclogreads storebytes bytessaved 0x0a0005024ddddab0 internal sysibm 0 0 0 0 0 4 0 0 0 0 0 0 0 0 - - 0x0a0005024dcf9430 locks db2gdpc 0 147 147 0 0 0 0 0 0 0 0 0 0 0 - - 0x0a0005024dcf6eb0 internal sysibm 0 0 0 0 0 7 0 0 0 0 0 0 0 0 - - 0x0a0005024ddde8b0 test db2gdpc 1 0 0 0 0 592865 0 0 0 0 0 0 0 0 - -
db2pd 的这个输出里面关注 scans,reads,inserts,updates 和 deletes。其中 scans 表示发生了表扫描的次数。reads,inserts,updates 和 deletes 分别是读增改删的次数。这些值都是累计值。如果需要当前实际的访问数量,需要通过抓取多次取差值排序才能知道。这个是非常不直观的。我在一键分析工具里面将个思路实现,最终通过计算出 reads,inserts,updates 和 deletes 的差值总和来排序获取到热点表。
获取相关应用和 sql
获取到热点表之后的下一步就是找到当前访问这个热点表的应用 apphdl 和对应的 sql 语句。db2 的默认隔离级别是 rs。即便是查询语句,也会在表上加共享锁。所以通过查看当前的数据库锁信息,找到在热点表上加了锁的应用就好了。
清单 14. db2pd 查看表锁信息
agdpcmb1:/home/db2gdpc$db2pd -d chgmdb -lock showlocks|more database member 0 -- database chgmdb -- active -- up 0 days 02:00:29 -- date 2018-03-07- 16.30.53.779832 locks: address tranhdl lockname type mode sts owner dur holdcount att re leaseflg rriid tablenm schemanm 0x0a0005000761cd00 40 414141414166416415c78bfec1 planlock ..s g 40 1 0 0x00000000 0x 40000000 0 n/a n/a 414141414166416415c78bfec1 sqlp_plan ({41414141 41664164 15c78bfe}, load ing=0) 0x0a000500075bd600 13 00030604000000000000000054 tablelock .ix g 13 1 1 0x00202000 0x 40000000 0 locks db2gdpc 00030604000000000000000054 sqlp_table (obj={3;1540}) 0x0a000500075c2f80 14 00030604000000000000000054 tablelock .ix g 14 1 1 0x00202000 0x 40000000 0 locks db2gdpc 00030604000000000000000054 sqlp_table (obj={3;1540}) 0x0a000500075c6380 15 00030604000000000000000054 tablelock .ix g 15 1 1 0x00202000 0x 40000000 0 locks db2gdpc 00030604000000000000000054 sqlp_table (obj={3;1540}) 0x0a0005000761d400 40 00020005000000000000000054 tablelock .is g 40 1 0 0x00003000 0x 40000000 0 test db2gdpc 00020005000000000000000054 sqlp_table (obj={2;5})
通过 tablenm 和 schemanm 匹配到热点表,获取到 tranhdl,然后通过 db2pd 的 transactions 选项找到对应的 apphandl。例如在这个案例里面 test 是一张热点表。从锁信息来看 tranhdl 为 40 的事务占用了锁。下一步通过 tranhdl 找 apphandl:
清单 15. db2pd 查看事务信息
agdpcmb1:/home/db2gdpc$db2pd -d chgmdb -transactions 40 database member 0 -- database chgmdb -- active -- up 0 days 02:04:26 -- date 2018-03-07- 16.34.50.447672 transactions: address apphandl [nod-index] tranhdl locks state tflag tflag2 firstlsn lastlsn firstlso lastlso logspace spacereserved tid axregcnt gxid clientuserid clientwrkstnname clientapplname clientaccntng 0x0a00050001064480 19451 [000-19451] 40 3 read 0x00000000 0x00000000 0x0000000000000000 0x0000000000000000 0 0 0 0 0x0000081db04f 1 0 n/a n/a n/a n/a total application commits : 806 total application rollbacks : 25
最后通过应用的 apphandl 找到对应的 sql,过程和前面几个案例一样。
一键分析热点表问题
我在一键检查工具里将上述分析过程自动化处理,间隔 10 秒抓取两次表访问数据,计算差值,然后获取到热点表。基于每个热点表的当前加锁信息找到对应的事务和应用,展示出当前正在执行的 sql。
清单 16. db2pd 查看事务信息
agdpcmb1:/home/db2gdpc$python db2_check_hang_105.py chgmdb hottable ############################################################################### # show hot tables and its statements # ############################################################################### #db2gdpc.test is hot. #reads: 12266 inserts: 0 updates: 0 deletes: 0 scans: 0 #the apphdl on this table are: ['19451', '19452', '19453'] ************statements 1 *********** the current stmt is:null . the last stmt is: select * from test . ************statements 2 *********** the current stmt is:null . the last stmt is: select * from test . ************statements 3 *********** the current stmt is:null . the last stmt is: select * from test .
这个输出里面的语句是同一个,执行时间应该都超过了 10 秒,所以 scans 差值为 0。但事实上这个 sql 是走的表扫描。通过这个工具可以立刻看到当前的热表,对应的 apphdl 和 sql。而 apphdl 可以用来杀 sql。
查看占用临时表的 sql 语句
db2 数据库的 sql 排序是在内存里进行的。sheapthres_shr 参数是限制总的排序内存大小。sortheap 参数是限制单个排序能占用的内存大小。当 sql 排序的时候超出任意一个限制,那么数据需要放到系统临时表里面来排序。相对于内存里排序,这个开销就非常大,sql 也会变得慢。如果系统临时表对应的磁盘出现瓶颈,那整个数据库也会运行缓慢。
谁在占用临时表
系统临时表是存储在系统临时表空间的一种数据库自动创建和删除的临时表。通过查看 db2pd 的 tcbstats 选项能够找到正在使用的临时表。
清单 17. db2pd 查看临时表
agdpcmb1:/home/db2gdpc$db2pd -d chgmdb -tcbstats nocatalog database member 0 -- database chgmdb -- active -- up 0 days 19:13:27 -- date 2018-03-08- 09.43.51.707946 tcb table information: address tbspaceid tableid partid mastertbs mastertab tablename schemanm objclass datasize lfsize lobsize xmlsize ixreqrebld 0x0a0005024ddddab0 2 -1 n/a 2 -1 internal sysibm perm 1 0 0 0 no 0x0a0005024dcf9430 3 1540 n/a 3 1540 locks db2gdpc perm 1787 0 64 0 no 0x0a0005024dcf6eb0 3 -1 n/a 3 -1 internal sysibm perm 7 0 0 0 no 0x0a0005024e1132b0 1 2 n/a 1 2 temp (00001,00002) <54365>< temp 8045 0 0 0 no 0x0a0005024ddde8b0 2 5 n/a 2 5 test db2gdpc perm 8013 0 0 0 no tcb table stats: address tablename schemanm scans udi rtsudi pgreorgs nochgupdts reads fscrupdates inserts updates deletes ovflreads ovflcrtes pgdictscrt cclogreads storebytes bytessaved 0x0a0005024ddddab0 internal sysibm 0 0 0 0 0 10 0 0 0 0 0 0 0 0 - - 0x0a0005024dcf9430 locks db2gdpc 0 147 147 0 0 0 0 0 0 0 0 0 0 0 - - 0x0a0005024dcf6eb0 internal sysibm 0 0 0 0 0 7 0 0 0 0 0 0 0 0 - - 0x0a0005024e1132b0 temp (00001,00002) <54365>< 0 0 0 0 0 60386 0 592865 0 0 0 0 0 0 126720902 0 0x0a0005024ddde8b0 test db2gdpc 5 0 0 0 0 2964325 0 0 0 0 0 0 0 0 - -
查找表名是 temp 的记录,案例里面是"temp (00001,00002)"
,对应的 schemanm 是"<54365><db2gdpc >"(案例里的命令加上 full 选项就能看到全部内容:db2pd -d chgmdb -tcbstats nocatalog -full )
。这里的 54365 就是应用的链接句柄 apphdl。db2gdpc 是连接用户也就是 schema。下面基于 apphdl 就可以找到正在运行的 sql 是什么了。
我在一键检查工具里面通过 db2pd 获取到所有占用了临时表的应用链接句柄 apphdl,然后将 sql 都展示出来。
清单 18. 一键检查工具查看临时表
agdpcmb1:/home/db2gdpc$python db2_check_hang_105.py chgmdb temptable ############################################################################### # show applications using temptable # ############################################################################### ************statements for application: 54365 *********** the current stmt is:null . the last stmt is: select * from test order by c5 .
获取到了 sql 就可以分析是否有异常,如果有异常,判断是否基于 apphdl 来杀 sql。
查看当前运行的管理操作
db2 的一些管理类操作也可能影响数据库的性能。所以当数据库缓慢的时候,我们还需要查看一下当前数据库内有哪些管理性的操作。
是否存在统计信息收集
统计信息收集(runstats)的对象是表和索引。db2 在做 runstats 的时候需要扫描大量数据并计算,因此是一类开销比较大的操作。db2pd 的 runstats 选项可以查看当前正在执行的 runstats。
清单 19. db2pd 查看 runstats
agdpcmb1:/home/db2gdpc$db2pd -d chgmdb -runstats database member 0 -- database chgmdb -- active -- up 12 days 20:23:45 -- date 2017-12-18- 11.02.56.265437 table runstats information: retrieval time: 12/18/2017 11:02:56 tbspaceid: -6 tableid: -32768 schema: chgmdb tablename: service_log status: in progress access: allow write sampling: no sampling rate: - start time: 12/18/2017 11:02:43 end time: - total duration: - cur count: 61797 max count: 500841 retrieval time: 12/18/2017 11:02:56 tbspaceid: 2 tableid: 5 schema: db2gdpc tablename: test status: completed access: allow write sampling: no sampling rate: - start time: 12/18/2017 11:01:48 end time: 12/18/2017 11:01:48 total duration: 00:00:01 cur count: 0 max count: 0 index runstats information: retrieval time: 12/18/2017 11:02:56 tbspaceid: 2 tableid: 5 schema: db2gdpc tablename: test status: completed access: allow write start time: 12/18/2017 11:01:48 end time: 12/18/2017 11:01:49 total duration: 00:00:01 prev index duration [1]: 00:00:01 prev index duration [2]: - prev index duration [3]: - cur index start: 12/18/2017 11:01:48 cur index: 2 max index: 2 index id: 2 cur count: 0 max count: 0
其中 end time 为空的记录就是当前正在做的 runstats。这里能看到具体是表还是索引正在做 runstats。结合当前的热点表,长时间运行的 sql 等信息一起分析数据库变慢的原因。
是否存在表重组
数据库的表和索引重组需要将磁盘上的数据重新整理一遍。这也是一个比较漫长和耗资源的操作。db2pd 的 reorgs 选项能找到当前正在执行的重组操作。
清单 20. db2pd 查看 reorgs
agdpcmb1:/home/db2gdpc$db2pd -d chgmdb -reorgs database member 0 -- database chgmdb -- active -- up 21 days 01:26:55 -- date 2017-12-26- 16.06.06.495099 table reorg information: address tbspaceid tableid partid mastertbs mastertab tablename type indexid tempspaceid 0x0a0006024e14fb00 2 5 n/a n/a n/a test offline 0 2 table reorg stats: address tablename start end phasestart maxphase phase curcount maxcount status completion 0x0a0006024e14fb00 test 12/26/2017 16:05:54 n/a 12/26/2017 16:05:55 3 build 3007 8012 started 0
找到了正在重组的表,再结合当前的热点表,长时间运行的 sql 等信息一起分析数据库变慢的原因。
是否存在 load 和 backup
db2 内部有一个内存块叫做 utilities heap,用来做一些管理类的操作。这个内存块的大小由数据库参数 util_heap_sz 来控制。例如 load 和 backup 这两种操作就需要使用这块内存。这个内存不足会导致 load 和 backup 变慢或者失败。而 load 和 backup 也是开销比较大的操作。db2pd 工具提供了 utilities 选项查看实例级别的此类操作。
清单 21. db2pd 查看 utilities
agdpcmb1:/home/db2gdpc$db2pd -utilities database member 0 -- active -- up 0 days 20:11:37 -- date 2018-03-08-10.40.23.994613 utilities: address id type state invoker priority starttime dbname numphases curphase description progress: address id phasenum completedwork totalwork starttime description
数据库缓慢的时候第一时间发现是否存在管理类的操作很有必要。这对于分析堵塞问题的方向很有帮助。这类管理性的操作不能随便处理。需要具体分析它的影响。例如 load 操作如果杀掉,会导致当前表不可用,需要 load 重置。可能导致更坏的结果。但是基于表的大小,load 的数据量可以估算还需要多长时间这个操作会完成,期间是否可以有办法加速等。
一键检查分析工具介绍
根据上述各种导致数据库堵塞的场景和分析方法,我编写了一个 python 脚本的一键检查分析工具,用来快速定位和分析数据库堵塞问题。这个脚本完全基于 db2pd 命令,可以在数据库堵塞的情况下,避免连接数据库失败,从内存直接获取诊断信息。这个脚本是基于 db2 10.5 版本编写的,不适用与其他版本。
清单 22. 一键检查工具使用方法
agdpcmb1:/home/db2gdpc$python db2_check_hang_105.py usage ./db2_check_hang.py <dbname> <option> #valid <options> are: all :collect all information, which is default. lock : show lock chains and statements of holders, and print killcmd. latch : show latch chains and get snapshot, stack for holders. print killcmd. stmt : show top 10 running statements and its apolication handler. hottable : show top tables(siud > 1000 in 10 seconds), get running stmt and apphdl. util : show runstats, reorgs, loads, backup. temptable: show applications using temtable, and show the sql statement.
这是个 python 脚本,需要安装 python 来调用。执行用户为数据库实例用户。dbname 是数据库名。option 选项可以选择案例里的内容。如果不输入 option,默认是 all,收集全部内容。如果输入单项,例如 lock,那么只收集锁等待相关的信息。
总结
导致数据库堵塞的问题根源可能性非常多。处理紧急问题最忌慌乱,找错方向浪费时间,选择错误的处理步骤,还可能导致问题更严重。我经历过一个反面案例:某个分区数据库发生了堵塞问题,管理员分析定位到是一个大事务造成的。这个事务查询了大量数据并在做插入操作。数据库管理员一着急杀掉了这个事务,导致事务回滚。结果这个事务回滚非常慢,整整花了两天才释放。期间业务完全受影响。其实如果当时评估下实际完成的数据量是不是已经很多,是不是快要完成了,然后耐心等待事务完成可能会更快。当然这方面的判断需要依赖数据库管理员的处理经验。
这个文章里面将一些常见的原因做了分析和处理。借助一键检查工具,快速分析问题和找到解决方案。
参考资源
- db2 for linux unix and windows:获得 db2 家族产品和特性的描述。
- 参考 ibm db2 database and sap software,了解更多 db2 sap 相关内容。
- 通过访问 developerworks 中国 information management 专区 的 information management 技术资源中心获得更多的文章、教程和多媒体课件等学习资源。
好了,以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对的支持。