MYSQL批量插入数据库实现语句性能分析

MYSQL批量插入数据库实现语句性能分析,第1张

假定我们的表结构如下

代码如下

CREATE

TABLE

example

(

example_id

INT

NOT

NULL,

name

VARCHAR(

50

)

NOT

NULL,

value

VARCHAR(

50

)

NOT

NULL,

other_value

VARCHAR(

50

)

NOT

NULL

)

通常情况下单条插入的sql语句我们会这么写:

代码如下

INSERT

INTO

example

(example_id,

name,

value,

other_value)

VALUES

(100,

'Name

1',

'Value

1',

'Other

1')

mysql允许我们在一条sql语句中批量插入数据,如下sql语句:

代码如下

INSERT

INTO

example

(example_id,

name,

value,

other_value)

VALUES

(100,

'Name

1',

'Value

1',

'Other

1'),

(101,

'Name

2',

'Value

2',

'Other

2'),

(102,

'Name

3',

'Value

3',

'Other

3'),

(103,

'Name

4',

'Value

4',

'Other

4')

如果我们插入列的顺序和表中列的顺序一致的话,还可以省去列名的定义,如下sql

代码如下

INSERT

INTO

example

VALUES

(100,

'Name

1',

'Value

1',

'Other

1'),

(101,

'Name

2',

'Value

2',

'Other

2'),

(102,

'Name

3',

'Value

3',

'Other

3'),

(103,

'Name

4',

'Value

4',

'Other

4')

上面看上去没什么问题,下面我来使用sql语句优化的小技巧,下面会分别进行测试,目标是插入一个空的数据表200W条数据

第一种方法:使用insert

into

插入,代码如下:

代码如下

$params

=

array('value'=>'50')

set_time_limit(0)

echo

date("H:i:s")

for($i=0$i<2000000$i++){

$connect_mysql->insert($params)

}

echo

date("H:i:s")

最后显示为:23:25:05

01:32:05

也就是花了2个小时多!

第二种方法:使用事务提交,批量插入数据库(每隔10W条提交下)最后显示消耗的时间为:22:56:13

23:04:00

,一共8分13秒

,代码如下:

代码如下

echo

date("H:i:s")

$connect_mysql->query('BEGIN')

$params

=

array('value'=>'50')

for($i=0$i<2000000$i++){

$connect_mysql->insert($params)

if($i%100000==0){

$connect_mysql->query('COMMIT')

$connect_mysql->query('BEGIN')

}

}

$connect_mysql->query('COMMIT')

echo

date("H:i:s")

第三种方法:使用优化SQL语句:将SQL语句进行拼接,使用

insert

into

table

()

values

(),(),(),()然后再一次性插入,如果字符串太长,

则需要配置下MYSQL,在mysql

命令行中运行

:set

global

max_allowed_packet

=

2*1024*1024*10消耗时间为:11:24:06

11:25:06

插入200W条测试数据仅仅用了1分钟!代码如下:

代码如下

$sql=

"insert

into

twenty_million

(value)

values"

for($i=0$i<2000000$i++){

$sql.="('50'),"

}

$sql

=

substr($sql,0,strlen($sql)-1)

$connect_mysql->query($sql)

最后总结下,在插入大批量数据时,第一种方法无疑是最差劲的,而第二种方法在实际应用中就比较广泛,第三种方法在插入测试数据或者其他低要求时比较合适,速度确实快。

导入时把生成索引给关掉,应该能快一点.

不要一边导入一边建立索引.

8G数据,应该也不那么慢了.

把sql语句文件读取出一部分看看,建表语句中,应当有建立索引的部分,删掉它!

只做建表和插入数据两件事.

还有,看看数据库有没有外键?

尽量在插入数据过程中去掉外键关联.

等数据插入完成之后再加索引和外键,应该能提高很多读写性能.

截取一部分数据,例如100Mb.

插入一下试试,可以预先对整体时间有一个预期.

还有,真的要弄台好点的电脑,或者去借一台,等把数据导入完成之后,把msyql的库文件直接复制出来放自己机器上跑就好.

emm..

再追加点信息,要先搞明白,sql原文件里,到底都执行了哪几类 *** 作?

可能需要你用c之类写点小工具,或者别的什么语言,分块读取并处理文件.

8G..

嗯,还好.

现在内存都够大,否则你都没法直接用软件打开了.

只有8G也可以直接用软件打开看.

停掉索引真的可以大幅度加快插入数据的速度.

建议试一试!


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/sjk/9891488.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-03
下一篇 2023-05-03

发表评论

登录后才能评论

评论列表(0条)

保存