1:通过轮训,定时查询数据库状态。
2:在table上做一个触发器,当做了删除修改等记录的时候触发一个文件更新,然后用文件fileSystemWatcher1_Changed抓取事件。
参考:
https://www.cnblogs.com/digdeep/p/4892953.html
https://blog.csdn.net/u013235478/article/details/68062939/
从 information_schema.innodb_trx 表中查看当前未提交的事务
lock_wait_timeout 表示获取metadata lock的超时(单位为秒),允许的值范围为1到31536000(1年)。 默认值为31536000。详见 https://dev.mysql.com/doc/refman/5.6/en/server-system-variables.html#sysvar_lock_wait_timeout 。默认值为一年!!!已哭瞎!将其调整为30分钟
1.2 查看表是否太大
看出表非常小,不存在由于数据量大导致更新慢的问题;
1.3 查看引擎状态
数据量太大,一屏幕都显示不完,不看了。
既然几个比较直接的方法都查不到原因,那只能更深入的查下了,我打算从数据字典中查下(information_schema,performance_schema):
1.4,查找当前等待事务:
显示空。
查找 information_schema 中的 事件表(EVENTS )、锁等待表(INNODB_LOCK_WAITS),innodb 当前出现的锁****(INNODB_LOCKS )均没看到异常(这里就不贴图了)。
1.5 查找事务
既然造成该锁的原因是事务没有提交导致的,那我们应该去查找当前是否有事务在运行( runing 注:由于事务一直是runing状态,这也就是为什么我之前查找各种锁都找不到的原因)
不过有重大发现:一个 trx_mysql_thread_id: 275255348 是从 trx_started: 2015-12-03 14:58:45 一直处于runing状态的。
既然我们找到了id了 那我们再回顾使用 show processlist 查找该ID就行了:
发现了吗,该ID一直是sleep状态。很难发现该进程打开了这个表(可以通过show open tables 查看当前打开的表)。
解决办法: 询问了开发这个点的脚本, *** 作。确认后通过后台mysql 直接kill掉这个进程,业务的alter *** 作瞬间完成。
查看当前所在库的事件:gbase>show events
查看所有事件:
gbase>select * from gbase.event
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)