mysql 批量更新10000+的数据,有什么效率比较高的方法

mysql 批量更新10000+的数据,有什么效率比较高的方法,第1张

首先, 插入上万条数据,对于数据库来说并不是“很大”的工作量,一般配置的笔记本电脑都可以在1分钟内完成。 所以最简单、最灵活的办法还是写SQL语句。

如果不希望DB编译器每次执行都编译SQL的话,可以使用存储过程,直接调用,性能上会好很多。也比较简单。

(几万条数据怎么地也得要时间去处理,所以不可能特别快的。)

如果由于各种原因,导致这个插入还是很慢, 而且你的MYSQL又是5.0以上版本的话,可以使用BulkCopy来进行批量 *** 作。

BulkCopy的原理就是Client直接把一个数组(DataTable)传给DB,然后传入表名,所有的编译、 *** 作都由DB自己完成,效率很高。

引用MySql.Data.dll , 调用MysqlBulkCopy函数即可。

这个函数在处理海量数据插入的时候效率尤为明显, 小量数据反而没什么优势,而且由于传入的DataTable格式必须和表的字段一模一样(空的列也要传进去),导致C#要写很多代码来构造这个数组,所以要你自己权衡用还是不用。

我在自己的电脑上批量插入一亿条数据,Insert写法大概需要1小时,BulkCopy大概只需要5分钟。

建缓冲区。比如其他类型的高速缓存(redis等)作为中间缓冲层。数据的查询,更改首先在这个层处理,处理完再更新到对应的数据库。注意额外增加锁,或者缓存机制防止缓存击穿,雪崩导致系统崩溃。

mysql更新10万条数据要三个多小时。根据查询相关公开信息,批量更新表中某个字段,如果表比较大,每条记录都执行一条update,1秒执行10条数据,10万条数据就要1W秒,3个多小时。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/7491434.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-06
下一篇 2023-04-06

发表评论

登录后才能评论

评论列表(0条)

保存