oracle数据库,批量插入数据脚本

oracle数据库,批量插入数据脚本,第1张

批量插入数据脚本

1、第一种批量插入数据脚本,可以基本满足要求。理解上较为简单,所以这个最常用。

NEXTVAL和CURRVAL的区别:

1、如果 sequence.CURRVAL 和 sequence.NEXTVAL 都出现在一个 SQL 语句中,则序列只增加一次。在这种情况下,每个 sequence.CURRVAL 和 sequence.NEXTVAL 表达式都返回相同的值,不管在语句中sequence.CURRVAL 和 sequence.NEXTVAL 的顺序。

执行脚本结果如下:

3、两个表,同时批量插入数据的脚本

3、

4、 涉及子表时,批量插入数据脚本,

5、 批量修改数据

时间取数方式

一、SYSTIMESTAMP(取当前系统值)

二、SYSDATE(取当前系统值,但只精确到时,分和秒都为0)

三、固定值为:TO_TIMESTAMP ('2019-2-12 15:24:45.703000', 'yyyy-mm-dd hh24:mi:ss.ff6')

把固定的字段改为变量:

方式一:’||i||’ 例:’{“no”:“111’||i||’”}’(此方式)

方式二:concat 例:concat(concat(’{“blNo”:111"’,i),’"}’)

如果名字不规则,用sql只能一个一个写,否则程序也不知道你名字是什么。

如果用程序的话,可以遍历一个文件夹的所有mdf文件,取出名称附加。

以下是sql的一个例子,仅供参考

名字规则的aaa1,aaa2这样

declare @i int

set @i=1 --假设有100个数据库

while @i<=100

begin

EXEC SP_ATTACH_DB ddd, 'D:\aaa'+cast(@i as varchar(10))+'.mdf','D\aaa'+cast(@i as varchar(10))+'.ldf'

set @i=@i+1

end

我们通过SQL脚本来插入数据,常见如下四种方式。

方式一:一条一条插入,性能最差,不建议使用。

INSERT INTO Product(Id,Name,Price) VALUES(newid(),'牛栏1段',160)INSERT INTO Product(Id,Name,Price) VALUES(newid(),'牛栏2段',260)

......

方式二:insert bulk

语法如下:

BULK INSERT [ [ 'database_name'.][ 'owner' ].]{ 'table_name' FROM 'data_file' }

WITH  (

[ BATCHSIZE [ = batch_size ] ],

[ CHECK_CONSTRAINTS ],

[ CODEPAGE [ = 'ACP' | 'OEM' | 'RAW' | 'code_page' ] ],

[ DATAFILETYPE [ = 'char' | 'native'| 'widechar' | 'widenative' ] ],

[ FIELDTERMINATOR [ = 'field_terminator' ] ],

[ FIRSTROW [ = first_row ] ],

[ FIRE_TRIGGERS ],

[ FORMATFILE = 'format_file_path' ],

[ KEEPIDENTITY ],

[ KEEPNULLS ],

[ KILOBYTES_PER_BATCH [ = kilobytes_per_batch ] ],

[ LASTROW [ = last_row ] ],

[ MAXERRORS [ = max_errors ] ],

[ ORDER ( { column [ ASC | DESC ] } [ ,...n ] ) ],

[ ROWS_PER_BATCH [ = rows_per_batch ] ],

[ ROWTERMINATOR [ = 'row_terminator' ] ],

[ TABLOCK ],

)  

相关参数说明:

BULK INSERT

[ database_name . [ schema_name ] . | schema_name . ] [ table_name | view_name ]

FROM 'data_file'

[ WITH

(

[ [ , ] BATCHSIZE = batch_size ]    --BATCHSIZE指令来设置在单个事务中可以插入到表中的记录的数量

[ [ , ] CHECK_CONSTRAINTS ]     --指定在大容量导入 *** 作期间,必须检查所有对目标表或视图的约束。若没有 CHECK_CONSTRAINTS 选项,则所有 CHECK 和 FOREIGN KEY 约束都将被忽略,并且在此 *** 作之后表的约束将标记为不可信。

[ [ , ] CODEPAGE = { 'ACP' | 'OEM' | 'RAW' | 'code_page' } ]  --指定该数据文件中数据的代码页

[ [ , ] DATAFILETYPE =

{ 'char' | 'native'| 'widechar' | 'widenative' } ]  --指定 BULK INSERT 使用指定的数据文件类型值执行导入 *** 作。

[ [ , ] FIELDTERMINATOR = 'field_terminator' ]  --标识分隔内容的符号

[ [ , ] FIRSTROW = first_row ]    --指定要加载的第一行的行号。默认值是指定数据文件中的第一行

[ [ , ] FIRE_TRIGGERS ]     --是否启动触发器

[ [ , ] FORMATFILE = 'format_file_path' ]

[ [ , ] KEEPIDENTITY ]   --指定导入数据文件中的标识值用于标识列

[ [ , ] KEEPNULLS ]    --指定在大容量导入 *** 作期间空列应保留一个空值,而不插入用于列的任何默认值

[ [ , ] KILOBYTES_PER_BATCH = kilobytes_per_batch ]

[ [ , ] LASTROW = last_row ]   --指定要加载的最后一行的行号

[ [ , ] MAXERRORS = max_errors ]   --指定允许在数据中出现的最多语法错误数,超过该数量后将取消大容量导入 *** 作。

[ [ , ] ORDER ( { column [ ASC | DESC ] } [ ,...n ] ) ]  --指定数据文件中的数据如何排序

[ [ , ] ROWS_PER_BATCH = rows_per_batch ]

[ [ , ] ROWTERMINATOR = 'row_terminator' ]   --标识分隔行的符号

[ [ , ] TABLOCK ]     --指定为大容量导入 *** 作持续时间获取一个表级锁

[ [ , ] ERRORFILE = 'file_name' ]   --指定用于收集格式有误且不能转换为 OLE DB 行集的行的文件。

)]  

方式三:INSERT INTO xx select...

INSERT INTO Product(Id,Name,Price) SELECT NEWID(),'牛栏1段',160

UNION ALL

SELECT NEWID(),'牛栏2段',180 UNION ALL......

方式四:拼接SQL

INSERT INTO Product(Id,Name,Price) VALUES(newid(),'牛栏1段',160)

,(newid(),'牛栏2段',260)

......


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/sjk/9986704.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-04
下一篇 2023-05-04

发表评论

登录后才能评论

评论列表(0条)

保存