浅谈MySQL分页Limit的性能问题
mysql的分页查询通常通过limit来实现。limit接收1或2个整数型参数,如果是2个参数,第一个是指定第一个返回记录行的偏移量,第二个是返回记录行的最大数目。初始记录行的偏移量是0。为了与postgresql兼容,limit也支持limit # offset #。
问题:
对于小的偏移量,直接使用limit来查询没有什么问题,但随着数据量的增大,越往后分页,limit语句的偏移量就会越大,速度也会明显变慢。
优化思想:避免数据量大时扫描过多的记录
解决:子查询的分页方式或者join分页方式。join分页和子查询分页的效率基本在一个等级上,消耗的时间也基本一致。
下面举个例子。一般mysql的主键是自增的数字类型,这种情况下可以使用下面的方式进行优化。
以真实的生产环境的6万条数据的一张表为例,比较一下优化前后的查询耗时:
-- 传统limit,文件扫描 [sql] select * from tablename order by id limit 50000,2; 受影响的行: 0 时间: 0.171s -- 子查询方式,索引扫描 [sql] select * from tablename where id >= (select id from tablename order by id limit 50000 , 1) limit 2; 受影响的行: 0 时间: 0.035s -- join分页方式 [sql] select * from tablename as t1 join (select id from tablename order by id limit 50000, 1) as t2 where t1.id <= t2.id order by t1.id limit 2; 受影响的行: 0 时间: 0.036s
可以看到经过优化性能提高了很多倍。
优化原理:
子查询是在索引上完成的,而普通的查询时在数据文件上完成的。通常来说,索引文件要比数据文件小得多,所以操作起来也会更有效率。因为要取出所有字段内容,第一种需要跨越大量数据块并取出,而第二种基本通过直接根据索引字段定位后,才取出相应内容,效率自然大大提升。因此,对limit的优化,不是直接使用limit,而是首先获取到offset的id,然后直接使用limit size来获取数据。
在实际项目使用,可以利用类似策略模式的方式去处理分页。例如,每页100条数据,判断如果是100页以内,就使用最基本的分页方式;如果大于100,则使用子查询的分页方式。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
上一篇: Mysql导入导出时遇到的问题解决