首先要区分具体情况,虽然表里有几百万几千万的数据量,但是update是同时update这几百万条的数据呢?还是只更新其中某几条? 更新的数据量不同,解决方案自然也就有差异。同时update几百万数据,这个sql的性能影响在于数据库会做回滚段,以便异常时rollback。由于数据量大,性能就浪费在回滚段上了。 所以有2个方案供参考:
1 update时 ,禁用回滚段的生成,跟你前面说的nologing应该是一个意思
2 分批更新,比如每更新10W条数据,就执行一次commit,这样效率也会比原来的要快。
有20万条数据,使用mysql数据库,insert与update哪个速度快
基本一样,没人做这麼无聊的测试,毕竟insert和update功能不一样, 如果你这样比,那你还要看使用myisam引擎还是innodb引擎
以上就是关于oracle几百万条数据怎么update全部的内容,包括:oracle几百万条数据怎么update、有20万条数据,使用mysql数据库,insert与update哪个速度快、等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)