Quantcast
Channel: CSDN博客推荐文章
Viewing all articles
Browse latest Browse all 35570

数据库优化SQL优化之SELECT优化 ——filesort

$
0
0

在执行计划中,可能经常看到有fExtra列有filesort,这就是使用了文件排序,这当然是不好

的,应该优化,但是,了解一下他排序的原理也许很有帮助,下面看一下filesort的过程:

         1、根据表的索引或者全表扫描,读取所有满足条件的记录

         2、对与每一行,存储一对儿值到缓冲区,一个是排序的索引列的值,即order by用到

               的列值,和执向该行数据的行指针,缓冲区的大小为sort_buffer_size大小

         3、当缓冲区满后,运行一个快速排序(qsort)来将缓冲区中数据排序,并将排序完的

                数据存储到一个临时文件,并 保存一个存储块儿的指针,当然,如果缓冲区不满,

                则不会重建临时文件了

         4、重复以上步骤,直到将所有行读完,并建立相应的有序的临时文件

         5、对块级进行排序,这个类似与归并排序算法,只通过两个临时文件的指针来不断交换

               数据,最终达到两个文件,都是有序的

         6、重复5,直到所有的数据都排序完毕

         7、采取顺序读的方式,将每行数据读入内存,并取出数据传到客户端,这里读取数据时

                并不是一行一行读,读如缓存大小由read_rnd_buffer_size来指定

这就是filesort的过程,采取的方法为:快速排序 + 归并排序,但有一个问题,就是,一行数据会

被读两次,第一次是where条件过滤时,第二个是排完序后还得用行指针去读一次,一个优化的

方法是,直接读入数据,排序的时候也根据 这个排序,排序完成后,就直接发送到客户端了,

过程如下:

           1、读取满足条件的记录

           2、对于每一行,记录排序的key和数据行位置,并且把要查询的列也读出来

           3、根据索引key排序

           4、读取排序完成的文件,并直接根据数据位置读取数据返回客户端,而不是去访问表

这也有一个问题:当获取的列很多的时候,排序起来就很占空间,因此,max_length_for_sort_data

变量就决定了是否能使用这个排序算法


建议:

            1、对于使用filesort的慢查询,可以改小一些max_length_for_sort_data来使用第一个方法

            2、对于想要加快order by 的顺序,有以下一些策略:

                       a、增加sort_buffer_size的大小,如果大量的查询较小的话,这个很好,就缓存中就搞定了

                       b、增加read_rnd_buffer_size大小,可以一次性多读到内存中

                       c、列的长度尽量小些

                       d、改变tmpdir,使其指向多个物理盘(不是分区)的目录,这将机会循环使用做为临时文件区

             



作者:Hello_ok_google 发表于2013-12-6 0:33:30 原文链接
阅读:211 评论:0 查看评论

Viewing all articles
Browse latest Browse all 35570

Trending Articles



<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>