求解navicat for mysql 对1个G的sql文件导入超级慢怎么处理?在线等!急急急!求指点

求解navicat for mysql 对1个G的sql文件导入超级慢怎么处理?在线等!急急急!求指点,第1张

在my.ini最底下添加个KV对:max_allowed_packet=100000M然后重启Mysql,就可以按普通的方法导了,可以用mysql命令,也可以用navicat for mysql(我一般用这个)不知道能不能写成100G,没试过,LZ试下吧。如果改不了my.ini可以试试这个方法,我没试过,因为我一直是改my.ini的,相信你有这么大的数据库应该不是用的虚拟主机吧:set global max_allowed_packet = 100*1024*1024*1024然后用:show VARIABLES like '%max_allowed_packet%'查看一下是否修改成功,这个应该就不用重启mysql了,重启反而失效了。

如果原表很大,插入数据会非常慢,建议插入到临时表,然后用一个语句(INSERT INTO XXX SELECT * FTOM TMPXXX)把数据插入,这样速度会快一点,如果想更快,需要减少不必要的索引,如果大批量的插入,可以插入前删除索引,插入后重新建立。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5942658.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-03-09
下一篇 2023-03-09

发表评论

登录后才能评论

评论列表(0条)

保存