聊聊order by的工作机制
总结写在前面:
1. 介绍了orderBy的两种算法流程:全字段排序 和 rowid排序。
2. rowid排序 相比 全字段排序,参与排序字段较少,耗内存较少,多一步回表,如果内存够的情况下MySQL会考虑优先使用全字段排序
3.MySQL做排序是较高成本的操作,可以在排序字段上加索引,减少消耗;更进一步的还可以用覆盖索引。
假设有一张表
CREATE TABLE `t` (
`id` int(11) NOT NULL,
`city` varchar(16) NOT NULL,
`name` varchar(16) NOT NULL,
`age` int(11) NOT NULL,
`addr` varchar(128) DEFAULT NULL,
PRIMARY KEY (`id`),
KEY `city` (`city`)
) ENGINE=InnoDB;
假设要查询“杭州”的所有人名字,并且按照姓名排序返回前 1000 个人的姓名、年龄。
select city,name,age from t where city='杭州' order by name limit 1000 ;
全字段排序
为避免全表扫描,在 city 字段加上索引。然后用 explain 命令看看这个语句的执行情况
Extra 字段中的“Using filesort”表示的就是需要排序,MySQL 会给每个线程分配一块用于排序的内存,称为 sort_buffer。
city索引的示意图如下:
可以看到,满足 city='杭州’条件的行,是从 ID_X 到 ID_(X+N) 的这些记录。
通常情况下,这个语句执行流程如下所示 :
1. 初始化 sort_buffer,确定放入 name、city、age 这三个字段;
2. 从索引 city 找到第一个满足 city='杭州’条件的主键 id,也就是图中的 ID_X;
3. 到主键 id 索引取出整行,取 name、city、age 三个字段的值,存入 sort_buffer 中;
4. 从索引 city 取下一个记录的主键 id;
5. 重复步骤 3、4 直到 city 的值不满足查询条件为止,对应的主键 id 也就是图中的 ID_Y;
6. 对 sort_buffer 中的数据按照字段 name 做快速排序;
7. 按照排序结果取前 1000 行返回给客户端。
第6步中的“按 name 排序”这个动作,可能在内存中完成,也可能需要使用外部排序,这取决于排序所需的内存和参数 sort_buffer_size。
sort_buffer_size,就是 MySQL 为排序开辟的内存(sort_buffer)的大小。如果要排序的数据量小于 sort_buffer_size,排序就在内存中完成。但如果排序数据量太大,内存放不下,则不得不利用磁盘临时文件辅助排序。
下面介绍一个方法,可以确定一个排序语句是否使用了临时文件。
/* 打开optimizer_trace,只对本线程有效 */
SET optimizer_trace='enabled=on'; /* @a保存Innodb_rows_read的初始值 */
select VARIABLE_VALUE into @a from performance_schema.session_status where variable_name = 'Innodb_rows_read'; /* 执行语句 */
select city, name,age from t where city='杭州' order by name limit 1000; /* 查看 OPTIMIZER_TRACE 输出 */
SELECT * FROM `information_schema`.`OPTIMIZER_TRACE`\G /* @b保存Innodb_rows_read的当前值 */
select VARIABLE_VALUE into @b from performance_schema.session_status where variable_name = 'Innodb_rows_read'; /* 计算Innodb_rows_read差值 */
select @b-@a;
这个方法是通过查看 OPTIMIZER_TRACE 的结果来确认的,可以从 number_of_tmp_files 中看到是否使用了临时文件。
图 1 全排序的 OPTIMIZER_TRACE 部分结果
number_of_tmp_files 表示的是,排序过程中使用的临时文件数。
内存放不下时,就需要使用外部排序,外部排序一般使用归并排序算法。
可以这么简单理解,MySQL 将需要排序的数据分成 12 份,每一份单独排序后存在这些临时文件中。然后把这 12 个有序文件再合并成一个有序的大文件。
如果 sort_buffer_size 超过了需要排序的数据量的大小,number_of_tmp_files 就是 0,表示排序可以直接在内存中完成。
否则就需要放在临时文件中排序。sort_buffer_size 越小,需要分成的份数越多,number_of_tmp_files 的值就越大。
下面解释一下图 1 中其他两个值的意思。
示例表中有 4000 条满足 city='杭州’的记录,所以examined_rows=4000,表示参与排序的行数是 4000 行。
sort_mode 里面的 packed_additional_fields 的意思是,排序过程对字符串做了“紧凑”处理。即使 name 字段的定义是 varchar(16),在排序过程中还是要按照实际长度来分配空间的。
最后一个查询语句 select @b-@a 的返回结果是 4000,表示整个执行过程只扫描了 4000 行。
这里需要注意的是,为了避免对结论造成干扰,我把 internal_tmp_disk_storage_engine 设置成 MyISAM。否则,select @b-@a 的结果会显示为 4001。
这是因为查询 OPTIMIZER_TRACE 这个表时,需要用到临时表,而 internal_tmp_disk_storage_engine 的默认值是 InnoDB。如果使用的是 InnoDB 引擎的话,把数据从临时表取出来的时候,会让 Innodb_rows_read 的值加 1。
rowid 排序
上面这个算法过程里面,只对原表的数据读了一遍,剩下的操作都是在 sort_buffer 和临时文件中执行的。
显然,如果查询要返回的字段很多的话, sort_buffer 里面要放的字段数太多,就会导致内存放不下,要分成很多个临时文件,排序的性能会很差。
即如果单行记录很大,全字段排序效率不好。
接下来,我们修改一个参数,让 MySQL 采用另外一种算法。
SET max_length_for_sort_data = 16;
max_length_for_sort_data是 MySQL 中专门控制用于排序的行数据的长度的一个参数。它的意思是,如果单行的长度超过这个值,MySQL 就认为单行太大,要换一个算法。
city、name、age 这三个字段的定义总长度是 36,大于16。
新的算法放入 sort_buffer 的字段,只有要排序的列(即 name 字段)和主键 id。
此时,排序的结果因为少了 city 和 age 字段的值,不能直接返回了,整个执行流程就变成:
1. 初始化 sort_buffer,确定放入两个字段,即 name 和 id;
2. 从索引 city 找到第一个满足 city='杭州’条件的主键 id,也就是图中的 ID_X;
3. 到主键 id 索引取出整行,取 name、id 这两个字段,存入 sort_buffer 中;
4. 从索引 city 取下一个记录的主键 id;
5. 重复步骤 3、4 直到不满足 city='杭州’条件为止,也就是图中的 ID_Y;
6. 对 sort_buffer 中的数据按照字段 name 进行排序;
7. 遍历排序结果,取前 1000 行;
8. 按照 id 的值回表取出 city、name 和 age 三个字段返回给客户端。
显然,rowid排序相比全字段排序多了一次访问表的主键索引,即第8步。
这里需要注意,实际上 MySQL 服务端从排序后的 sort_buffer 中依次取出 id,然后到原表查到 city、name 和 age 这三个字段的结果,不需要在服务端再耗费内存存储结果,是直接返回给客户端的。
再用OPTIMIZER_TRACE看看有什么不同:
- examined_rows 的值还是 4000,表示用于排序的数据是 4000 行。
- 但是 select @b-@a 这个语句的值变成 5000 了。因为除了排序过程外,还要根据 id 去原表取值。由于语句是 limit 1000,因此会多读 1000 行。
- sort_mode 变成了 <sort_key, rowid="">,表示参与排序的只有 name 和 id 这两个字段。
- number_of_tmp_files 变成 10 了,是因为这时候参与排序的行数虽然仍然是 4000 行,但是每一行都变小了,因此需要排序的总数据量就变小了,需要的临时文件也相应地变少了。
全字段排序 VS rowid 排序
从上面两种算法简单分析:
如果 MySQL 实在是担心排序内存太小,会影响排序效率,才会采用 rowid 排序算法,这样排序过程中一次可以排序更多行,但是需要再回到原表去取数据。
如果 MySQL 认为内存足够大,会优先选择全字段排序,把需要的字段都放到 sort_buffer 中,这样排序后就会直接从内存里面返回查询结果了,不用再回到原表去取数据。
这也就体现了 MySQL 的一个设计思想:如果内存够,就要多利用内存,尽量减少磁盘访问。
对于 InnoDB 表来说,rowid 排序会要求回表多造成磁盘读,因此不会被优先选择。
到这里我们发现,MySQL 做排序是一个成本比较高的操作。那么你会问,是不是所有的 order by 都需要排序操作呢?
显然,如果不排序就能得到正确的结果,那对系统的消耗会小很多,语句的执行时间也会变得更短。
谈到有序数据很自然就能想到索引,假设在表上创建一个 city 和 name 的联合索引,作为与city索引的对比:
在这个索引里面,我们依然可以用树搜索的方式定位到第一个满足 city='杭州’的记录,并且额外确保了,接下来按顺序取“下一条记录”的遍历过程中,只要 city 的值是杭州,name 的值就一定是有序的。
整个查询过程的流程就变成了:
1. 从索引 (city,name) 找到第一个满足 city='杭州’条件的主键 id;
2. 到主键 id 索引取出整行,取 name、city、age 三个字段的值,作为结果集的一部分直接返回;
3. 从索引 (city,name) 取下一个记录主键 id;
4. 重复步骤 2、3,直到查到第 1000 条记录,或者是不满足 city='杭州’条件时循环结束。
可以看到,这个查询过程不需要临时表,也不需要排序。
接下来,我们用 explain 的结果来印证一下。
Extra 字段中没有 Using filesort 了,也就是不需要排序了。
而且由于 (city,name) 这个联合索引本身有序,所以这个查询也不用把 4000 行全都读一遍,只要找到满足条件的前 1000 条记录就可以退出了。也就是说,只需要扫描 1000 次。
讲到了索引,我们可以再思考下有没办法再进一步优化这个查询呢?有的,覆盖索引。
针对这个查询,我们可以创建一个 city、name 和 age 的联合索引。
这时,对于 city 字段的值相同的行来说,还是按照 name 字段的值递增排序的,此时的查询语句也就不再需要排序了。这样整个查询语句的执行流程就变成了:
1. 从索引 (city,name,age) 找到第一个满足 city='杭州’条件的记录,取出其中的 city、name 和 age 这三个字段的值,作为结果集的一部分直接返回;
2. 从索引 (city,name,age) 取下一个记录,同样取出这三个字段的值,作为结果集的一部分直接返回;
3. 重复执行步骤 2,直到查到第 1000 条记录,或者是不满足 city='杭州’条件时循环结束。
再来看看 explain 的结果。
可以看到,Extra 字段里面多了“Using index”,表示的就是使用了覆盖索引,性能上会快很多。
注意:通常不能每个查询都为了用上覆盖索引,就要把语句中涉及的字段都建上联合索引,毕竟索引还是有维护代价的。这是一个需要权衡的决定。
最新文章
- android android 判断是否滑动
- [USACO2003][poj2138]Travel Games(dp/最长路)
- 每天一个linux命令(12):head 命令
- viewPager+Handler+Timer简单实现广告轮播效果
- c++逆向 vector
- maven第四章背景案例
- Android Studio Gradle 版本不同报错解决方法
- SQL总结之对比和备份
- linux mail命令详解
- 掌握Chrome Developer Tools:下一阶段前端开发技术
- JDBC存在的问题
- 【一天一道LeetCode】#122. Best Time to Buy and Sell Stock II
- IEEE发布2017年编程语言排行榜:Python高居首位
- 文本编辑利器Notepad++ 10个强大而又鲜为人知的特性【转】
- 如何用java实现一个p2p种子搜索(4)-种子获取
- c++ map 注意事项
- How to RAMDISK on macOS
- Django多表操作
- 字符串之StringBuffer 与 StringBuilder的对比
- mongodb数据库中插入数据