可通过以下方法:
以100条数据为例,如果海量数据可参考。
如test表中有如下数据:
现要将begintime改成当前时间,每10条提交一次。
可用如下存储过程:
declarei int--定义变量
v_count int--定义变量
v_loop int--定义变量
begin
select count(*) into v_count from test--计算表内数据总数
select ceil(v_count/10) into v_loop from dual--计算需要循环次数
i:=1--为i赋值
while i<=v_loop loop--循环退出条件
update test set begintime=sysdate where begintime is null and rownum<=10--执行更新
commit--提交
i:=i+1--i依次加1
end loop--结束循环
end
首先要区分具体情况,虽然表里有几百万几千万的数据量,但是update是同时update这几百万条的数据呢?还是只更新其中某几条? 更新的数据量不同,解决方案自然也就有差异。同时update几百万数据,这个sql的性能影响在于数据库会做回滚段,以便异常时rollback。由于数据量大,性能就浪费在回滚段上了。 所以有2个方案供参考:1. update时 ,禁用回滚段的生成,跟你前面说的nologing应该是一个意思
2. 分批更新,比如每更新10W条数据,就执行一次commit,这样效率也会比原来的要快。
看具体怎么更新了,一般语法是:
update 表名 set 字段='xxx' where 条件commit
这个所有数据库基本一致,都是这个语法
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)