文章目录

  一、count() 的实现方式 1.不同引擎的count()的区别

  在不同的 MySQL 引擎中,count() 有不同的实现方式。这里说的count() 都是没有过滤条件的。

  这是因为即使是在同一个时刻的多个查询,由于多版本并发控制(MVCC)的原因,InnoDB 表“应该返回多少行”也是不确定的。这和 InnoDB 的事务设计有关系,可重复读是它默认的隔离级别,在代码上就是通过多版本并发控制,也就是 MVCC 来实现的。每一行记录都要判断自己是否对这个会话可见,因此对于 count(*) 请求来说,InnoDB 只好把数据一行一行地读出依次判断,可见的行才能够用于计算“基于这个查询”的表的总行数。

  在执行 count(*) 操作的时候还是做了优化的。

  InnoDB 是索引组织表,主键索引树的叶子节点是数据,而普通索引树的叶子节点是主键值。所以,普通索引树比主键索引树小很多。对于 count(*) 这样的操作,遍历哪个索引树得到的结果逻辑上都是一样的。因此,MySQL 优化器会找到最小的那棵树来遍历。

  在保证逻辑正确的前提下,尽量减少扫描的数据量,是数据库系统设计通用法则之一。

  如果你现在有一个页面经常要显示交易系统的操作记录总数,为了避免性能问题,只能自己计数。基本思路:你需要自己找一个地方,把操作记录表的行数存起来。

  1.用缓存系统保存计数

  可以用一个 Redis 服务来保存这个表的总行数。这个表每被插入一行 Redis 计数就加 1,每被删除一行 Redis 计数就减 1。这种方式下,读和更新操作都很快,但缓存系统可能会因为异常重启而丢失更新。解决方法是Redis 异常重启以后,到数据库里面单独执行一次 count(*) 获取真实的行数,再把这个值写回到 Redis 里就可以了。偶尔一次全表扫描的成本,还是可以接受的。

  但即使 Redis 正常工作,这个值还是逻辑上不精确的。

  在这里插入图片描述

  在这里插入图片描述

  一种是,查到的 100 行结果里没有最新插入的记录,而 Redis 的计数里已经加了 1。

  另一种是,查到的 100 行结果里面有最新插入记录,而 Redis 的计数里还没加 1;

  在并发系统里面,我们是无法精确控制不同线程的执行时刻的。所以这个方法并不完美。

  2.在数据库保存计数

  如果我们把这个计数直接放到数据库里单独的一张计数表 C 中,可以解决崩溃丢失的问题。而解决计数不精确的问题,可以通过事务来解决。

  在这里插入图片描述

  2.不同的 count 用法

  下面的讨论是基于 InnoDB 引擎的。

  count() 是一个聚合函数,对于返回的结果集,一行行地判断,如果 count 函数的参数不是 NULL,累计值就加 1,否则不加。最后返回累计值。

  所以,count(*)、count(主键 id) 和 count(1) 都表示返回满足条件的结果集的总行数;而 count(字段),则表示返回满足条件的数据行里面,参数“字段”不为 NULL 的总个数。

  count() 是例外,并不会把全部字段取出来,而是专门做了优化,不取值。count() 肯定不是 null,按行累加。

  count(1) 执行得要比 count(主键 id) 快。因为从引擎返回 id 会涉及到解析数据行,以及拷贝字段值的操作。count(字段)就更慢了。

  结论:按照效率排序的话,count(字段)

  二、order by的原理 1.全字段排序

  假设你要查询城市是“杭州”的所有人名字,并且按照姓名排序返回前 1000 个人的姓名、年龄。

  假设这个表的部分定义是这样的:

   CREATE TABLE t (

      `id` int(11) NOT NULL,
      `city` varchar(16) NOT NULL,
      `name` varchar(16) NOT NULL,
      `age` int(11) NOT NULL,
      `addr` varchar(128) DEFAULT NULL,
      PRIMARY KEY (`id`),
      KEY `city` (`city`)
    ) ENGINE=InnoDB;

  这时,你的 SQL 语句可以这么写:

  select city,name,age from t where city='杭州' order by name limit 1000 ;

  用 explain 命令来看看这个语句的执行情况。

  在这里插入图片描述

  Extra 这个字段中的“Using filesort”表示的就是需要排序,MySQL 会给每个线程分配一块内存用于排序,称为 sort_buffer。

  这个语句执行流程如下所示 :

  初始化 sort_buffer,确定放入 name、city、age 这三个字段;从索引 city 找到第一个满足 city='杭州’条件的主键 id;到主键 id 索引取出整行,取 name、city、age 三个字段的值,存入 sort_buffer 中;从索引 city 取下一个记录的主键 id;重复步骤 3、4 直到 city 的值不满足查询条件为止;对 sort_buffer 中的数据按照字段 name 做快速排序;按照排序结果取前 1000 行返回给客户端。

  在这里插入图片描述

  “按 name 排序”这个动作,可能在内存中完成,也可能需要使用外部排序,这取决于排序所需的内存和参数 sort_buffer_size。如果要排序的数据量小于 sort_buffer_size,排序就在内存中完成。但如果排序数据量太大,内存放不下,则不得不利用磁盘临时文件辅助排序。

  你可以用下面介绍的方法,来确定一个排序语句是否使用了临时文件。

   / 打开optimizer_trace,只对本线程有效 /

    SET optimizer_trace='enabled=on'; 
    /* @a保存Innodb_rows_read的初始值 */
    select VARIABLE_VALUE into @a from  performance_schema.session_status 
    where variable_name = 'Innodb_rows_read';
    /* 执行语句 */
    select city, name,age from t where city='杭州' order by name limit 1000; 
    /* 查看 OPTIMIZER_TRACE 输出 */
    SELECT * FROM `information_schema`.`OPTIMIZER_TRACE`\G
    /* @b保存Innodb_rows_read的当前值 */
    select VARIABLE_VALUE into @b from performance_schema.session_status 
    where variable_name = 'Innodb_rows_read';
    /* 计算Innodb_rows_read差值 */
    select @b-@a;

  在这里插入图片描述

  这个方法是通过查看 OPTIMIZER_TRACE 的结果来确认的,你可以从 number_of_tmp_files 中看到是否使用了临时文件。外部排序一般使用归并排序算法。所以显示用了12个临时文件。

  如果 sort_buffer_size 超过了需要排序的数据量的大小,number_of_tmp_files 就是 0,表示排序可以直接在内存中完成。

  examined_rows=4000,表示参与排序的行数是 4000 行。

  sort_mode 里面的 packed_additional_fields 的意思是,排序过程对字符串做了“紧凑”处理。即使 name 字段的定义是 varchar(16),在排序过程中还是要按照实际长度来分配空间的。

  同时,最后一个查询语句 select @b-@a 的返回结果是 4000,表示整个执行过程只扫描了 4000 行。

  2.rowid 排序

  在上面这个算法有一个问题,就是如果查询要返回的字段很多的话,那么 sort_buffer 里面要放的字段数太多,这样内存里能够同时放下的行数很少,要分成很多个临时文件,排序的性能会很差。

  此时可以让 MySQL 采用另外一种算法。

  SET max_length_for_sort_data = 16;

  max_length_for_sort_data,是 MySQL 中专门控制用于排序的行数据的长度的一个参数。它的意思是,如果单行的长度超过这个值,MySQL 就认为单行太大,要换一个算法。

  city、name、age 这三个字段的定义总长度是 36,而 max_length_for_sort_data 设置为 16。

  此时,放入 sort_buffer 的字段,只有要排序的列(即 name 字段)和主键 id。但由于少了 city 和 age 字段的值,不能直接返回了,整个执行流程就变成如下所示的样子:

  初始化 sort_buffer,确定放入两个字段,即 name 和 id;从索引 city 找到第一个满足 city='杭州’条件的主键 id;到主键 id 索引取出整行,取 name、id 这两个字段,存入 sort_buffer 中;从索引 city 取下一个记录的主键 id;重复步骤 3、4 直到不满足 city='杭州’条件为止;对 sort_buffer 中的数据按照字段 name 进行排序;遍历排序结果,取前 1000 行,并按照 id 的值回到原表中取出 city、name 和 age 三个字段返回给客户端。

  在这里插入图片描述

  需要说明的是,最后的“结果集”是一个逻辑概念,实际上 MySQL 服务端从排序后的 sort_buffer 中依次取出 id,然后到原表查到 city、name 和 age 这三个字段的结果,不需要在服务端再耗费内存存储结果,是直接返回给客户端的。

  在这里插入图片描述

  此时 examined_rows 的值还是 4000,表示用于排序的数据是 4000 行。

  但是select @b-@a 这个语句的值变成 5000 了。

  因为这时候除了排序过程外,在排序完成后,还要根据 id 去原表取值。由于语句是 limit 1000,因此会多读 1000 行。

  3.使用索引避免额外排序

  MySQL 之所以需要生成临时表,并且在临时表上做排序操作,其原因是原来的数据都是无序的。

  在这个市民表上创建一个 city 和 name 的联合索引:

  alter table t add index city_user_age(city, name, age);

  这样整个查询过程的流程就变成了:

  从索引 (city,name) 找到第一个满足 city='杭州’条件的主键 id;到主键 id 索引取出整行,取 name、city、age 三个字段的值,作为结果集的一部分直接返回;从索引 (city,name) 取下一个记录主键 id;重复步骤 2、3,直到查到第 1000 条记录,或者是不满足 city='杭州’条件时循环结束。

  用 explain 的结果来印证一下。

  在这里插入图片描述

  Extra 字段中没有 Using filesort 了,也就是不需要排序了。而且由于 (city,name) 这个联合索引本身有序,所以这个查询也不用把 4000 行全都读一遍,只要找到满足条件的前 1000 条记录就可以退出了。也就是说,在我们这个例子里,只需要扫描 1000 次。

  进一步地,如果使用 city、name 和 age 的联合索引,甚至还能用上覆盖索引,连回表都省了。

  这样整个查询语句的执行流程就变成了:

  从索引 (city,name,age) 找到第一个满足 city='杭州’条件的记录,取出其中的 city、name 和 age 这三个字段的值,作为结果集的一部分直接返回;从索引 (city,name,age) 取下一个记录,同样取出这三个字段的值,作为结果集的一部分直接返回;重复执行步骤 2,直到查到第 1000 条记录,或者是不满足 city='杭州’条件时循环结束。

  在这里插入图片描述

  可以看到,Extra 字段里面多了“Using index”,表示的就是使用了覆盖索引,性能上会快很多。

  4.order by rand()

  从一个单词表中随机选出三个单词。这个表的建表语句和初始数据的命令如下:

   CREATE TABLE words (

      `id` int(11) NOT NULL AUTO_INCREMENT,
      `word` varchar(64) DEFAULT NULL,
      PRIMARY KEY (`id`)
    ) ENGINE=InnoDB;
    delimiter ;;
    create procedure idata()
    begin
      declare i int;
      set i=0;
      while i= @X limit 1;

  这个方法效率很高,因为取 max(id) 和 min(id) 都是不需要扫描索引的,而第三步的 select 也可以用索引快速定位,可以认为就只扫描了 3 行。但因为 ID 中间可能有空洞,因此选择不同行的概率不一样,不是真正的随机。

  实现三:

   select count(*) into @C from t;

    set @Y = floor(@C * rand());
    set @sql = concat("select * from t limit ", @Y, ",1");
    prepare stmt from @sql;
    execute stmt;
    DEALLOCATE prepare stmt;

  解决了算法 1 里面明显的概率不均匀问题。MySQL 处理 limit Y,1 的做法就是按顺序一个一个地读出来,丢掉前 Y 个,然后把下一个记录作为返回结果,因此这一步需要扫描 Y+1 行。再加上,第一步扫描的 @C 行,总共需要扫描 C+Y+1 行,执行代价比实现二要高。但是比 order by rand() 小很多。

  如果要随机取 3 个 word 值:

   select count(*) into @C from t;

    set @Y1 = floor(@C * rand());
    set @Y2 = floor(@C * rand());
    set @Y3 = floor(@C * rand());
    select * from t limit @Y1,1; //在应用代码里面取Y1、Y2、Y3值,拼出SQL后执行
    select * from t limit @Y2,1;
    select * from t limit @Y3,1;

  总扫描行数是 C+(Y1+1)+(Y2+1)+(Y3+1)

  思考题

  1、在刚刚讨论的方案中,我们用了事务来确保计数准确。由于事务可以保证中间结果不被别的事务读到,因此修改计数值和插入新记录的顺序是不影响逻辑结果的。但是,从并发系统性能的角度考虑,你觉得在这个事务序列里,应该先插入操作记录,还是应该先更新计数表呢?

  答:应该先插入操作记录,再更新计数表。因为更新计数表涉及到行锁的竞争,先插入再更新能最大程度地减少了事务之间的锁等待,提升了并发度。

  2、假设你的表里面已经有了 city_name(city, name) 这个联合索引,然后你要查杭州和苏州两个城市中所有的市民的姓名,并且按名字排序,显示前 100 条记录。如果 SQL 查询语句是这么写的 :

   select * from t where city in ('杭州',"苏州") order by name limit 100;

  那么,这个语句执行的时候会有排序过程吗,为什么?如果业务端代码由你来开发,需要实现一个在数据库端不需要排序的方案,你会怎么实现呢?进一步地,如果有分页需求,要显示第 101 页,也就是说语句最后要改成 “limit 10000,100”, 你的实现方法又会是什么呢?

  答:虽然有 (city,name) 联合索引,对于单个 city 内部,name 是递增的。但是同时查了"杭州"和" 苏州 "两个城市,因此所有满足条件的 name 就不是递增的了。也就是说,这条 SQL 语句需要排序。

  可以通过拆成两条语句,在程序中另外做归并排序,来避免SQL排序。

  如果把这条 SQL 语句里“limit 100”改成“limit 10000,100”,

   select id,name from t where city="杭州" order by name limit 10100;

    select id,name from t where city="苏州" order by name limit 10100。

  然后用归并排序算法,按顺序取第 10001~10100 的 name、id 值,然后拿着这 100 个 id 到数据库中去查出所有记录,就是需要的结果了。

  3、随机排序的实现三,实际上它还是可以继续优化,来进一步减少扫描行数的。说说你的方案,并说明你的方案需要的扫描行数。

  答:

  这里我给出一种方法,取 Y1、Y2 和 Y3 里面最大的一个数,记为 M,最小的一个数记为 N,然后执行下面这条 SQL 语句:mysql> select * from t limit N, M-N+1;

  再加上取整个表总行数的 C 行,这个方案的扫描行数总共只需要 C+M+1 行。取回来以后再挑出Y1,Y2,Y3对应的三条数据。

  参考资料:林晓斌——MySQL实战45讲

最后修改:2024 年 07 月 31 日
如果觉得我的文章对你有用,请随意赞赏