30万的数据,往生产库里面插入的时候,耗时3-4个小时,太慢了,怎么解决啊

30万的数据,往生产库里面插入的时候,耗时3-4个小时,太慢了,怎么解决啊,第1张

不关数据库的事,看你是怎么去插入数据,表对表插入和是循环读取数据一条一条插入

查询记录假设花费时间T,

一条一条循环插入30数据就要花费: 遍历查询时间T+插入时间

表对表插入30万数据就等于耗费: (遍历查询时间T+插入时间)匹配检查时间

从Excel、ACCESS、SQL、Prox插入到Oracle本身就慢得出奇,ADO方法对Oracle处理方式并没有做太大的优化,我平常往Oracle插入数据也是这样,本来以为Java开发会节省一点时间,也一个鸟样

你是用insert语句,还是用oracle的导入功能?

反正插入数据快的话,你先把索引的语句备份一下,然后全部drop掉

然后再执行插入 *** 作,插入结束后再建立索引

反正这事也快不了,你先看看我说的那种得多长时间吧

如果数据库中存在要替换的记录,用更新就行了,何必删掉再插入呢

还有,你可以对你用来判断重复的那几个字段合起来做一个Hash(MD5,SHA都可以),添加到表中,然后检索的时候用这个字段判断就可以了

数据量太大且未清洗干净,导致导入慢。

_诮莸既胧菘庵埃癖匾繁U庑┦菀丫潜磺逑垂母删坏氖荩蝗绻挥斜磺逑垂柿坎畹氖葜苯尤肟饨谢夭饪赡芑岬贾赂髦治侍猓跋觳呗钥⒌男_省

_npy 中默认使用 SQLite 数据库。

以上就是关于30万的数据,往生产库里面插入的时候,耗时3-4个小时,太慢了,怎么解决啊全部的内容,包括:30万的数据,往生产库里面插入的时候,耗时3-4个小时,太慢了,怎么解决啊、ORACLE 插入大量数据过慢、C#数据导入数据库时太慢等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/sjk/9546776.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-29
下一篇 2023-04-29

发表评论

登录后才能评论

评论列表(0条)

保存