批量向MySQL导入1000万条数据的优化

批量向MySQL导入1000万条数据的优化,第1张

1.用start transaction关闭mysql的自动提交,合理设置插入批量大小,不要一条数据提交一次。 2.修改表的存储引擎InnoDB为MyISAM。(因为InnoDB中存在redo log日志,每次更新表的结果先写入redo log中,等redo log满了之后再写入磁盘而这个过程是会停止其他所有的事务) 3.优化SQL(一条SQL语句插入多条数据) 4.尽量顺序插入(存储引擎底层采用的数据结构是B+tree索引,如果每次插入记录都在索引的最后面,索引的定位效率很高,并且对索引调整较小;如果插入的记录在索引中间,则需要维护B+tree并且索引定位效率会下降,数据量较大时会有频繁的磁盘 *** 作)

php中利用数组用mysql_query批量执行sql语句。

参考示例如下:

思路:这里采用一个数组.用explode

函数,将$query语句按照””炸开,然后循环执行即可:

$query

=

'delete

from

ecs_goods_attr

where

attr_id=11

and

goods_id=22

insert

into

ecs_goods_attr

(goods_attr_id,goods_id,attr_id,attr_value,attr_price)values(null,33,138,"胆略",0)

update

ecs_goods

set

goods_number=10,shop_price=55

where

goods_id=33'

$query_e

=

explode('','$query')

foreach

($query_e

as

$k

=>$v)

{

mysql_query($query_e[$k])

}

这样

$query语句就被批量的执行了。

假定我们的表结构如下

代码如下

CREATE

TABLE

example

(

example_id

INT

NOT

NULL,

name

VARCHAR(

50

)

NOT

NULL,

value

VARCHAR(

50

)

NOT

NULL,

other_value

VARCHAR(

50

)

NOT

NULL

)

通常情况下单条插入的sql语句我们会这么写:

代码如下

INSERT

INTO

example

(example_id,

name,

value,

other_value)

VALUES

(100,

'Name

1',

'Value

1',

'Other

1')

mysql允许我们在一条sql语句中批量插入数据,如下sql语句:

代码如下

INSERT

INTO

example

(example_id,

name,

value,

other_value)

VALUES

(100,

'Name

1',

'Value

1',

'Other

1'),

(101,

'Name

2',

'Value

2',

'Other

2'),

(102,

'Name

3',

'Value

3',

'Other

3'),

(103,

'Name

4',

'Value

4',

'Other

4')

如果我们插入列的顺序和表中列的顺序一致的话,还可以省去列名的定义,如下sql

代码如下

INSERT

INTO

example

VALUES

(100,

'Name

1',

'Value

1',

'Other

1'),

(101,

'Name

2',

'Value

2',

'Other

2'),

(102,

'Name

3',

'Value

3',

'Other

3'),

(103,

'Name

4',

'Value

4',

'Other

4')

上面看上去没什么问题,下面我来使用sql语句优化的小技巧,下面会分别进行测试,目标是插入一个空的数据表200W条数据

第一种方法:使用insert

into

插入,代码如下:

代码如下

$params

=

array('value'=>'50')

set_time_limit(0)

echo

date("H:i:s")

for($i=0$i<2000000$i++){

$connect_mysql->insert($params)

}

echo

date("H:i:s")

最后显示为:23:25:05

01:32:05

也就是花了2个小时多!

第二种方法:使用事务提交,批量插入数据库(每隔10W条提交下)最后显示消耗的时间为:22:56:13

23:04:00

,一共8分13秒

,代码如下:

代码如下

echo

date("H:i:s")

$connect_mysql->query('BEGIN')

$params

=

array('value'=>'50')

for($i=0$i<2000000$i++){

$connect_mysql->insert($params)

if($i%100000==0){

$connect_mysql->query('COMMIT')

$connect_mysql->query('BEGIN')

}

}

$connect_mysql->query('COMMIT')

echo

date("H:i:s")

第三种方法:使用优化SQL语句:将SQL语句进行拼接,使用

insert

into

table

()

values

(),(),(),()然后再一次性插入,如果字符串太长,

则需要配置下MYSQL,在mysql

命令行中运行

:set

global

max_allowed_packet

=

2*1024*1024*10消耗时间为:11:24:06

11:25:06

插入200W条测试数据仅仅用了1分钟!代码如下:

代码如下

$sql=

"insert

into

twenty_million

(value)

values"

for($i=0$i<2000000$i++){

$sql.="('50'),"

}

$sql

=

substr($sql,0,strlen($sql)-1)

$connect_mysql->query($sql)

最后总结下,在插入大批量数据时,第一种方法无疑是最差劲的,而第二种方法在实际应用中就比较广泛,第三种方法在插入测试数据或者其他低要求时比较合适,速度确实快。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/8505498.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-17
下一篇 2023-04-17

发表评论

登录后才能评论

评论列表(0条)

保存