Mysql解决USE DB堵塞详解
遇到故障,我们往往想的是如何解决这个故障,而不是从故障的根本去思考出现这个故障的原因?这样的结果,只能使我们得到了鱼,失去了渔。今天,我们就来分享一个由use db堵塞故障引发的思考案例。
故障描述
今天一个朋友遇到数据库遇到一个严重的故障,故障环境如下:
mysql 5.6.16
rr隔离级别
gitd关闭
表现如下:
use db不能进入数据库
show table status不能查询到表信息
schema.processlist来看有大量的 waiting for table metadata lock
情急之下他杀掉了一大堆线程后发现还是不能恢复,最后杀掉了一个没有及时提交的事物才恢复正常。也仅仅留下了如下图的一个截图:
故障信息提取
还是回到上图,我们可以归纳一下语句类型如下:
1、create table a as select b
其state为 sending data
2、drop table a
其state为 waiting for table metadata lock
3、select * from a
其state为 waiting for table metadata lock
4、 show table status[like 'a']
其state为 waiting for table metadata lock
信息分析
要分析出这个案列其实不太容易因为他是mysql层mdl lock和rr模式innodb row lock的一个综合案列,并且我们要对schema.processlist的state比较敏感才行。
建议先阅读我的如下文章来学习mdl lock:
本节关于mdl lock的验证使用下面两种方式:
方式一:笔者在mdl lock源码加锁函数处加日志输出,如果要分析各种语句加mdl lock的类型还只能用这种方式,因为mdl lock加锁往往一闪而过,performance_schema.metadata_locks 没有办法观察到。
方式二:处于堵塞情况下使用5.7版本的performance_schema.metadata_locks观察。
在p_s中打开mdl监测方法如下:
一、关于create table a as select b 对b表sending data的分析
关于sending data这个状态其实可以代表很多含义,从我现有的对的了解,这是mysql上层对select类型语句的这类语句在innodb层和mysql层进行数据交互的时候一个统称,所以出现它的可能包含:
确实需要访问数据量特别大,可能需要优化。
由于innodb 层的获取row lock需要等待,比如我们常见的select for update。
同时我们还需要注意在rr模式下select b这一部分加锁方式和insert...select是一致的参考不再赘述:
从他反应的情况因为他在最后杀掉了一个长期的未提交的事物所以他因为是情况2。并且整个create table a as select b语句由于b表上某些数据库被上了锁而不能获取,导致整个语句处于sending data状态下。
二、关于show table status[like 'a'] waiting for table metadata lock的分析
这是本案例中最重要的一环,show table status[like 'a']居然被堵塞其state为waiting for table metadata lock并且注意这里是table因为mdl lock类型分为很多。我在mdl介绍的那篇文章中提到了desc 一个表的时候会上mdl_shared_high_prio(sh),其实在show table status的时候也会对本表上mdl_shared_high_prio(sh)。
方式一
方式二
两种方式都能观察到mdl_shared_high_prio(sh)的存在并且我模拟的是处于堵塞情况下的。
但是mdl_shared_high_prio(sh) 是一个优先级非常高的一个mdl lock类型表现如下:
兼容性:
阻塞队列优先级:
其被堵塞的条件除了被mdl_exclusive(x)堵塞没有其他的可能。那么这就是一个非常重要的突破口。
三、关于create table a as select b 对a表的加mdl lock的分析
这一点也是我以前不知道的,也是本案列中花时间最多的地方,前文已经分析过要让show table status[like 'a']这种只会上mdl_shared_high_prio(sh) mdl lock的语句堵塞在mdl lock上只有一种可能那就是a表上了mdl_exclusive(x)。
那么我开始怀疑这个ddl语句在语句结束之前会对a表上mdl_exclusive(x) ,然后进行实际测试不出所料确实是这样的如下:
方式一
方式二
这里比较遗憾在performance_schema.metadata_locks中并没有显示出mdl_exclusive(x),而显示为mdl_shared(s)是我们在我输出的日志中可以看到这里做了升级操作将mdl_shared(s) 升级为了mdl_exclusive(x)。并且由前面的兼容性列表来看,只有mdl_exclusive(x)会堵塞mdl_shared_high_prio(sh)。所以我们应该能够确认这里确实做了升级操作,否则show table status[like 'a'] 是不会被堵塞的。
四、关于select * from a waiting for table metadata lock的分析
也许大家认为select不会上锁,但是那是在innodb 层次,在mysql层会上mdl_shared_read(sr) 如下:
方式一
方式二
可以看到确实有mdl_shared_read(sr)的存在,当前处于堵塞状态
其兼容性如下:
显然mdl_shared_read(sr) 和mdl_shared_high_prio(sh)是不兼容的需要等待。
五、关于drop table a waiting for table metadata lock的分析
这一点很好分析因为a表上了x锁而drop table a必然上mdl_exclusive(x)锁它当然和mdl_exclusive(x)不兼容。如下:
方式一
方式二
其中exclusive就是我们说的mdl_exclusive(x)它确实存在当前处于堵塞
六、为何use db也会堵塞?
如果使用mysql客户端不使用-a选项(或者 no-auto-rehash)在use db的时候至少要做如下事情:
1、 对db下每个表上mdl (sh) lock如下(调用mdl_context::acquire_lock 这里给出堵塞时候的信息)
方式一
方式二
可以看到use db确实也因为mdl_shared_high_prio(sh) 发生了堵塞。
2、对每个表加入到table cache,并且打开表(调用open_table_from_share())
那么这种情况就和show table status[like 'a']被堵塞的情况一模一样了,也是由于mdl 锁不兼容造成的。
分析梳理
有了前面的分析那么我们可以梳理这个故障发生的原因如下:
有一个在b表上长期未提交的dml
语句会在innodb层对b表某些数据加innodb row lock。
由步骤1引起了create table a as select b的堵塞
因为rr模式下select b必然对b表上满足的数据上锁,因为步骤1已经加锁所以触发等待,state为sending data。
由步骤2引起了其他语句的堵塞
因为crate table a as select b在a表建立完成之前会上mdl_exclusive(x),这把锁会堵塞其他全部的关于a表的语句,包括desc/show table status/use db(非-a) 这种只上mdl_shared_high_prio(sh)mdl lock 的语句。state统一为waiting for table metadata lock。
模拟测试
测试环境:
5.7.14
gitd关闭
rr隔离级别
使用脚本:
步骤如下:
session1
最后我们看到的等待状态如下:
这样我们就完美的模拟出线上的状态,如果我们杀掉session1中的事物,自然就全部解锁了,让我们再来看一下performance_schema.metadata_locks中的输出:
我们可以看到如上的输出,但是需要注意lock_type: shared它不可能堵塞lock_type: shared_high_prio(可以参考附录或者我以前写的mdl lock分析的文章)如上文分析这里实际上是做了升级操作升级为了mdl_exclusive(x)。
总结
rc模式下虽然create table a select b中b表不会上任何innodb row lock但是如果b表非常大那么a表也会处于mdl_exclusive(x)保护下,因此也会触发use db\show table status等待的情况。
如果打开gtid不能使用create table a select b这样的语句。
对于dml/ddl混用的系统一定要注意并发,就像本例中如果注意到高并发下的情况可以想办法避免。
这个案列再次说明了长期不提交的事物可能引发悲剧,所以建议监控超过n秒没结束的事务。
附录
mdl lock type
兼容性矩阵
等待队列优先级矩阵
下一篇: 使用 Node.js 开发资讯爬虫流程