SQL数据库中记录条数当达到以亿的单位,会不会非常影响查询速度啊? 此时,是否分不同的表来存储要好些?

SQL数据库中记录条数当达到以亿的单位,会不会非常影响查询速度啊? 此时,是否分不同的表来存储要好些?,第1张

如果是重要数据,当然要及时做好备份.如果需要很高的查询速度,智能的将数据分为若干个表也是可以的.只是调用数据.别说是1亿,100亿的数据量也不会有太大的影响,如果是汇总数据,或者进行强度较大的运算时,1亿的数据量,等上几个小时出一个结果也是有可能的.

10以上的数据量的话.就不推荐用SQL了.可以考虑一下ORACLE看看.

10亿级别的什么数据?

如果是 关系型很强,而且数据很值钱的数据, 例如 顾客--交易--商品--金额 一个系列的, 那么这种很重要的数据,建议是 Oracle, 因为 数据丢不起啊。

如果是 关系型强, 但是数据不是很值钱的数据, 例如 A股 从开市以来, 所有股票的 每日,每小时,30分,15分,5分 钟的行情数据。 那么你可以使用 Mysql。 反正丢了就重新导入一次。

如果是 关系型不强, 数据也不是很值钱的数据, 例如 论坛的帖子 这一类的, 那么用 mongodb 就更合适一些。

如果SQLServer2000就多建几个表分别保存数据,做个视图合并,每个表<1000万

如果SQLServer2005则可以建分区表,性能相对会好些,建议还是每个分区<1000万


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/sjk/9875503.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-02
下一篇 2023-05-02

发表评论

登录后才能评论

评论列表(0条)

保存