正如房东所说,分页查询在我们的实际应用中非常常见,也是问题最多的查询场景。例如,对于下面的简单语句,通常的思考方式是在name、age、register中u在time字段上创建一个复合索引。这样,条件排序可以有效地利用索引,性能得到快速提高。
如上例所示,当limit子句变为“limit 100000,50”时,我们会发现,如果只选择了50条语句,为什么会变慢?
,所以我们会觉得很慢。
mysql表数据量太大,达到了1亿多条数据,除了分库分表之外,还有没有其他的解决方式?
在正常配置下,MySQL只能承载2000万个数据(同时读写,并且表中有大的文本字段,单个服务器可以同时读写)服务器)。现在已经超过1亿,而且还在增加,建议按以下方式处理:
1子表。它可以按时间或一定的规则进行拆分,以便尽可能地查询子表中的数据库。这是最有效的方法。特别是写,放入一个新表,并定期同步。如果记录不断更新,最好将写入的数据放在redis中,并定期同步表3的大文本字段,将它们分隔成一个新的独立表。对于较大的文本字段,可以使用NoSQL数据库
4优化体系结构,或者优化SQL查询,避免联合表查询,尽量不要使用count(*)、in、recursion等性能消耗语句
5使用内存缓存,或者在前端读取时增加缓存数据库。重复读取时,直接从缓存中读取。
以上是一种低成本的管理方法,基本上几个服务器就可以做到,但是管理起来有点麻烦。
当然,如果总体数据量特别大,并且您不关心投资成本,请使用集群或tidb
mysql同时查询最大值和最小值 sql查询最大最小 mysql查询最大值和它同行数据
SQL1中查询出全部记录,并且根据id和created_at拼接为新的字段k,在SQL2中过滤出符合条件的记录,并且根据id和created_at拼接为新的字段;最后在SQL3中,根据字段k去查询过滤出符合条件的记录。
结果如下(共有31条记录,其中有几个需要过滤):
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)