1200万 mysql数据怎么快速导入到Mongodb

1200万 mysql数据怎么快速导入到Mongodb,第1张

目前我知道的几种从mysql导入数据到mongodb的方法,如果发现新方法会继续添加。

1)自己写一个程序,从mysql select数据,然后调用insert,插入数据到mongodb中。

2)通过mysql工具将数据导出为csv/json格式的文件,然后使用mongodb自带的mongoimport导入数据。

(当数据量非常大的时候,可以pre-spliting + multi-mongoimport加快导入速度

3)通过工具MongoVUE(带界面的)从mysql直接导数据到mongodb中。

1. CPU多少?

2. 内存多大?

3. 插入的每条多大?

4. 插入的两条数据之间可有关联性?

总的来说,cpu够快,内存够大,插入数据较小(1k左右),插入的两条数据之间无关联性的话,插入的速度是很快的,但是能不能达到50000条就没有测试过了。

我自己的机器,2.0G cpu,双核,2g内存,插入速度10000条左右(每条1k)。

几个大型数据库的写入速度都很快的,性能主要看并发量的吧,比如100w的数据写入要多少秒,mongodb在数据量大的时候,并发还是杠杠的,比mysql要强,不过mongodb在数据统计上面还是有些缺陷的,没有mysql好用,这个只是个人观点,想要更加了解mongodb还需要自己多逛逛官网论坛,多敲敲键盘

-


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/bake/11660295.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-17
下一篇 2023-05-17

发表评论

登录后才能评论

评论列表(0条)

保存