一篇文章让你搞懂MYSQL底层原理

一篇文章让你搞懂MYSQL底层原理,第1张

一篇文章让你搞懂MYSQL底层原理 mysql视频教程栏目介绍底层原理。

MYSQL一条SQL执行过程先看看一条查询SQL

  • (这里提供一下官方对各存储引擎的文档说明 Mysql存储引擎)
一条 update SQL执行

update的执行 从客户端 => ··· => 执行引擎 是一样的流程,都要先查到这条数据,然后再去更新。要想理解 UPDATE 流程我们先来看看,Innodb的架构模型。

Innodb 架构

上一张 MYSQL 官方InnoDB架构图:

内部模块

连接器(JDBC、ODBC等) =>

[MYSQL 内部

[Connection Pool] (授权、线程复用、连接限制、内存检测等)
=>

[SQL Interface] (DML、DDL、Views等) [Parser] (Query Translation、Object privilege) [Optimizer] (Access Paths、 统计分析) [Caches & Buffers]
=>

[Pluggable Storage Engines]复制代码

]

=> [File]

内存结构

这里有个关键点,当我们去查询数据时候会先 拿着我们当前查询的 pagebuffer pool 中查询 当前page是否在缓冲池中。如果在,则直接获取。

而如果是update *** 作时,则会直接修改 Buffer中的值。这个时候,buffer pool中的数据就和我们磁盘中实际存储的数据不一致了,称为脏页。每隔一段时间,Innodb存储引擎就会把脏页数据刷入磁盘。一般来说当更新一条数据,我们需要将数据给读取到buffer中修改,然后写回磁盘,完成一次 落盘IO *** 作。

为了提高update的 *** 作性能,Mysql在内存中做了优化,可以看到,在架构图的缓冲池中有一块区域叫做:change buffer。顾名思义,给change后的数据,做buffer的,当更新一个没有 unique index 的数据时,直接将修改的数据放到 change buffer,然后通过 merge *** 作完成更新,从而减少了那一次 落盘的IO *** 作。

  • 我们上面说的有个条件:没有唯一索引的数据更新时,为什么必须要没有唯一索引的数据更新时才能直接放入change buffer呢?如果是有唯一约束的字段,我们在更新数据后,可能更新的数据和已经存在的数据有重复,所以只能从磁盘中把所有数据读出来比对才能确定唯一性。
  • 所以当我们的数据是 写多读少 的时候,就可以通过 增加 innodb_change_buffer_max_size 来调整 change bufferbuffer pool 中所占的比例,默认25(即:25%)
问题又来了,merge是如何运作的

有四种情况:

  1. 有其他访问,访问到了当前页的数据,就会合并到磁盘
  2. 后台线程定时merge
  3. 系统正常shut down之前,merge一次
  4. redo log写满的时候,merge到磁盘
一、redo log是什么

谈到redo,就要谈到innodb的 crash safe,使用 WAL 的方式实现(write Ahead Logging,在写之前先记录日志)

这样就可以在,当数据库崩溃的后,直接从 redo log中恢复数据,保证数据的正确性

redo log 默认存储在两个文件中 ib_logfile0 ib_logfile1,这两个文件都是固定大小的。为什么需要固定大小?

这是因为redo log顺序读取 的特性造成的,必须是连续的存储空间

二、随机读写与顺序读写

看一张图

一般我们的数据都是分散在磁盘上的:

机械硬盘的读写顺序是:

  1. 定位到磁道
  2. 等待旋转到对应扇区
  3. 开始读写

固态读写:

  1. 直接定位到闪存芯片(这也是为啥固态比机械快)
  2. 开始读写

其实不管机械还是固态,我们去存储时,都是通过文件系统与磁盘打交道的,而他们打交道的方式就有两个。随机读写顺序读写

  1. 随机读写存储的数据是分布在不同的 (默认 1block=8扇区=4K)
  2. 而顺序存储,顾名思义,数据是分布在一串连续的块中,这样读取速度就大大提升了
三、回到我们架构图

看到buffer pool中的Log Buffer,其就是用来写 redo log 之前存在的缓冲区

在这里,redo log具体的执行策略有三种:

  1. 不用写Log Buffer,只需要每秒写redo log 磁盘数据一次,性能高,但会造成数据 1s 内的一致性问题。适用于强实时性弱一致性,比如评论区评论
  2. Log Buffer,同时写入磁盘,性能最差,一致性最高。 适用于弱实时性强一致性,比如支付场景
  3. Log Buffer,同时写到os buffer(其会每秒调用 fsync 将数据刷入磁盘),性能好,安全性也高。这个是实时性适中 一致性适中的,比如订单类

我们通过innodb_flush_log_at_trx_commit就可以设置执行策略。默认为 1

内存结构小结

  1. Buffer Pool 用于加速读
  2. Change Buffer 用于没有非唯一索引的加速写
  3. Log Buffer 用于加速redo log写
  4. 自适应Hash索引主要用于加快查询 。在查询时,Innodb通过监视索引搜索的机制来判断当前查询是否能走Hash索引。比如LIKE运算符和% 通配符就不能走。
硬盘结构一、System Tablespace

存储在一个叫ibdata1的文件中,其中包含:

  1. InnoDB Data Dictionary,存储了元数据,比如表结构信息、索引等
  2. Doublewrite Buffer 当Buffer Pool写入数据页时,不是直接写入到文件,而是先写入到这个区域。这样做的好处的是,一但 *** 作系统,文件系统或者mysql挂掉,可以直接从这个Buffer中获取数据。
  3. Change Buffer 当Mysql shut down的时候,修改就会被存储在磁盘这里
  4. Undo Logs 记录事务修改 *** 作
二、File-Per-Table Tablespaces

每一张表都有一张 .ibd 的文件,存储数据和索引。

  1. 有了每表文件表空间可以使得 ALTER TABLETRUNCATE TABLE 性能得到很好的提升。比如 ALTER TABLE,相较于对驻留在共享表空间中的表,在修改表时,会进行表复制 *** 作,这可能会增加表空间占用的磁盘空间量。此类 *** 作可能需要与表中的数据以及索引一样多的额外空间。该空间不会像每表文件表空间那样释放回 *** 作系统。
  2. 可以在单独的存储设备上创建每表文件表空间数据文件,以进行I / O优化,空间管理或备份。这就意味着表数据与结构容易在不同数据库中迁移。
  3. 当发生数据损坏,备份或二进制日志不可用或无法重新启动MySQL服务器实例时,存储在单个表空间数据文件中的表可以节省时间并提高成功恢复的机会。

当然有优点就有缺陷:

  1. 存储空间的利用率低,会存在碎片,在Drop table的时候会影响性能(除非你自己管理了碎片)
  2. 因为每个表分成各自的表文件, *** 作系统不能同时进行fsync一次性刷入数据到文件中
  3. mysqld会持续保持每个表文件的 文件句柄, 以提供维持对文件的持续访问
三、General Tablespaces
  1. 通用表空间又叫共享表空间,他可以存储多个表的数据
  2. 如果存储相同数量的表,消耗的存储比 每表表空间
  3. 在MySQL 5.7.24中弃用了将表分区放置在常规表空间中的支持,并且在将来的MySQL版本中将不再支持。
四、Temporary Tablespaces

存储在一个叫 ibtmp1 的文件中。正常情况下Mysql启动的时候会创建临时表空间,停止的时候会删除临时表空间。并且它能够自动扩容。

五、Undo Tablespaces
  1. 提供修改 *** 作的 原子性,即当修改到一半,出现异常,可以通过Undo 日志回滚。
  2. 它存储了,事务开始前的原始数据与这次的修改 *** 作。
  3. Undo log 存在于回滚段(rollback segment)中,回滚段又存在系统表空间``撤销表空间``临时表空间中,如架构图所示。
Redo Log

前面已经介绍过

总结一下,我们执行一句update SQL 会发生什么
  1. 查询到我们要修改的那条数据,我们这里称做 origin,返给执行器
  2. 在执行器中,修改数据,称为 modification
  3. modification刷入内存,Buffer PoolChange Buffer
  4. 引擎层:记录undo log (实现事务原子性)
  5. 引擎层:记录redo log (崩溃恢复使用)
  6. 服务层:记录bin log(记录DDL)
  7. 返回更新成功结果
  8. 数据等待被工作线程刷入磁盘

Bin log

说了 UndoRedo也顺便说一下Bin log.

  1. 这一个log和 innodb引擎没有多大关系,我们前面说的那两种日志,都在是innodb引擎层的。而Bin log是处于服务层的。所以他能被各个引擎所通用
  2. 他的主要作用是什么呢?首先,Bin log 是以事件的形式,记录了各个 DDL DML 语句,它是一种逻辑意义上的日志。
  3. 能够实现主从复制服务器拿到服务器的bin log日志,然后执行。
  4. 数据恢复,拿到某个时间段的日志,重新执行一遍。
跟随一条SQL语句完成全局预览后,我们来看看回过头来让SQL变得更加丰富,我们来添加一个索引试试

华丽的分割线


索引篇

要想彻底弄明白InnoDB中的索引是个什么东西,就必须要了解它的文件存储级别

Innodb中将文件存储分为了四个级别

Pages, Extents, Segments, and Tablespaces

它们的关系是:

  • 默认的 extent 大小为 1M6416KBPage。平常我们文件系统所说的页大小是 4KB,包含 8512Byte的扇区。
存储结构 B树变体 B+树

所以有时候,我们被要求主键为什么要是有序的原因就是,如果我们在一个有序的字段上,建立索引,然后插入数据。 在存储的时候,innodb就会按着顺序一个个存储到 上,存满一个页再去申请新的页,然后接着存。

但如果我们的字段是无序的,存储的位置就会在不同的页上。当我们的数据存储到一个已经被 存满上时,就会造成页分裂,从而形成碎片

几种不同的索引组织形式
  1. 聚簇索引,如上面B+树图所示,子节点上存储行数据,并且索引的排列的顺序索引键值顺序一致的话就是 聚簇索引。主键索引就是聚簇索引,除了主键索引,其他所以都是辅助索引
  2. 辅助索引,如果我们创建了一个辅助索引,它的叶子节点上只存储自己的值主键索引的值。这就意味着,如果我们通过辅助索引查询所有数据,就会先去查找辅助索引中的主键键值,然后再去主键索引里面,查到相关数据。这个过程称为回表
  3. rowid 如果没有主键索引怎么办呢?
    1. 没有主键,但是有一个 Unique key 而且都不是 null的,则会根据这个 key来创建聚簇索引
    2. 那上面两种都没有呢,别担心,innodb自己维护了一个叫 rowid 的东西,根据这个id来创建 聚簇索引
索引如何起作用

搞清楚什么是索引,结构是什么之后。 我们来看看,什么时候我们要用到索引,理解了这些能更好的帮助我们创建正确高效的索引

  1. 离散度低不建索引,也就是数据之间相差不大的就没必要建立索引。(因为建立索引,在查询的时候,innodb大多数据都是相同的,我走索引 和全表没什么差别就会直接全表查询)。比如 性别字段。这样反而浪费了大量的存储空间。

  2. 联合字段索引,比如 idx(name, class_name)

    1. 当执行 select * from stu where class_name = xx and name = lzw 查询时,也能走 idx 这个索引的,因为优化器将SQL优化为了 name = lzw and class_name = xx
    2. 当需要有 select ··· where name = lzw 的时候,不需要创建一个单独的 name索引,会直接走 idx这个索引
    3. 覆盖索引。如果我们此次查询的所有数据全都包含在索引里面了,就不需要再 回表去查询了。比如:select class_name from stu where name =lzw
  3. 索引条件下推(index_condition_pushdown)

    1. 有这样一条SQL,select * from stu where name = lzw and class_name like '%xx'
    2. 如果没有索引条件下推,因为后面是 like '%xx'的查询条件,所以这里首先根据 nameidx联合索引 查询到几条数据后,再回表查询到全量row数据,然后在server层进行 like 过滤找到数据
    3. 如果有,则直接在引擎层对like也进行过滤了,相当于把server层这个过滤 *** 作下推到引擎层了。如图所示:

建立索引注意事项
  1. 在where、order、join的on 使用次数多的时候,加上索引
  2. 离散度高的字段才能建立索引
  3. 联合索引把离散度高的放前面(因为首先根据第一个字段匹配,能迅速定位数据位置。)
  4. 频繁更新的字段不能建索引(造成页分裂,索引按顺序存储,如果存储页满了,再去插入就会造成页分裂)
  5. 使用比如replace、sum、count等函数的时候不会使用索引,所以没必要额外建
  6. 出现隐式转化的时候,比如字符串转int,也用不到索引
  7. 特别长的字段,可以截取前面几位创建索引(可以通过 select count(distinct left(name, 10))/count(*) 来看离散度,决定到底提取前几位)
  • tips: 执行一个SQL,不能确切说他是否能不能用到索引,毕竟这一切都是 优化器决定的。比如你使用了 Cost Base Optimizer 基于开销的优化器,那种开销小就用哪种优化。
弄懂了索引,我们就有能力打开 锁篇 的副本了

又一个华丽的分割线


锁篇四大特性

先回顾一下我们耳熟能详的几个基本概念:

  1. 原子性(通过Undo log实现)
  2. 一致性
  3. 隔离性
  4. 持久性(崩溃恢复,Redo log + double write 实现)
读一致性问题应该由数据库的事务隔离级别来解决 (SQL92 标准)

前提,在一个事务中:

  1. 脏读(读到了别人还没有commit的数据,然后别人又回滚掉了)
  2. 不可重复读(第一次读取到了数据,然后别人修改commit了,再次去读取就读到了别人已经commit的数据)
  3. 幻读(在范围查询的时候,读到别人新添加的数据)

SQL92 标准规定: (并发度从左到右,依次降低)

  • tips: Innodb中,Repeatable Read的幻读,也不可能存在,是因为它自己解决了
Innodb中如何解决 可重复读(RR) 中产生幻读的情况锁模型
  1. LBCC (Lock Based Concurrency Control) 读之前加个锁,但这样可能会导致性能问题 => 读的时候加锁导致其他事务都不能读写了,性能低下
  2. MVCC(Multi Version Concurrency Control) 读的时候记录当时快照,别人来读取快照就行 => 性能消耗,存储消耗

这两种方案在Innodb中结合使用。这里简要说明一下 RR 的 MVCC实现,图中 回滚id 初始值不应该为0而是NULL,这里为了方便写成0

  • RC的MVCC实现是对 同一个事务的多个读 创建一个版本RR 是 同一个事务任何一条都创建一个版本

通过MVCCLBCC的结合,InnoDB能解决对于不加锁条件下的 幻读的情况。而不必像 Serializable 一样,必须让事务串行进行,无任何并发

下面我们来深入研究一下InnoDB锁是如何实现 RR 事务隔离级别的

锁深入 MVCC在Innodb的实现一、Innodb 的锁
  1. Shared and Exclusive Locks 共享和排它锁 =>(S、X)
  2. Intention Locks 意向锁 => 这里指的是两把锁,其实就是表级别的 共享和排它锁 => (IS、IX)

上面这四把锁最基本锁的类型

  1. Record Locks 记录锁
  2. Gap Locks 间隙锁
  3. Next-key Locks 临锁

这三把锁,理解成对于上面四把锁实现的三种算法方式,我们这里暂且把它们称为:高阶锁

  1. Insert Intention Locks 插入锁
  2. AUTO-INC Locks 自增键锁
  3. Predicate Locks for Spatial Indexes 专用于给Spatial Indexes用的

上面三把是额外扩展的锁

二、读写锁深入解释
  1. 要使用共享锁,在语句后面加上lock in share mode 。排它锁默认 Insert、Update、Delete会使用。显示使用在语句后加for update
  2. 意向锁都是由数据库自己维护的。(主要作用是给表打一个标记,记录这个表是否被锁住了) => 如果没有这个锁,别的事务想锁住这张表的时候,就要去全表扫描是否有锁,效率太低。所以才会有意向锁的存在。
补充:Mysql中锁,到底锁的是什么

锁的是索引,那么这个时候可能有人要问了:那如果我不创建索引呢?

索引的存在,我们上面讲过了,这里再回顾一下,有下面几种情况

  1. 你建了一个 Primary key, 就是聚集索引 (存储的是 完整的数据
  2. 没有主键,但是有一个 Unique key 而是都不是 null的,则会根据这个 key来创建 聚簇索引
  3. 那上面两种都没有呢,别担心,innodb自己维护了一个叫 rowid 的东西,根据这个id来创建 聚簇索引

所以一个表里面,必然会存在一个索引,所以锁当然总有索引拿来锁住了。

当要给一张你没有显示创建索引的表,进行加锁查询时,数据库其实是不知道到底要查哪些数据的,整张表可能都会用到。所以索性就锁整张表

  • 如果是给辅助索引加写锁,比如select * from where name = ’xxx‘ for update 最后要回表查主键上的信息,所以这个时候除了锁辅助索引还要锁主键索引
三、高阶锁深入解释

首先上三个概念,有这么一组数据:主键是 1,3,6,9 在存储时候有如下:x 1 x 3 x x 6 x x x 9 x···

记录锁,锁的是每个记录,也就是 1,3,6,9 间隙锁,锁的是记录间隙,每个 x,(-∞,1), (1,3), (3,6), (6,9), (9,+∞) 临锁,锁的是 (-∞,1], (1,3], (3,6], (6,9], (9,+∞] 左开右闭的区间

首先这三种锁都是 排它锁, 并且 临键锁 = 记录锁 + 间隙锁

  1. select * from xxx where id = 3 for update 时,产生记录锁
  2. select * from xxx where id = 5 for update 时,产生间隙锁 => 锁住了(3,6),这里要格外注意一点:间隙锁之间是不冲突的。
  3. select * from xxx where id = 5 for update 时,产生临键锁 => 锁住了(3,6], mysql默认使用临键锁,如果不满足 1 ,2 情况 则他的行锁的都是临键锁
  • 回到开始的问题,在这里 Record Lock 行锁防止别的事务修改或删除,Gap Lock 间隙锁防止别的事务新增,Gap Lock 和 Record Lock结合形成的Next-Key锁共同解决RR级别在写数据时的幻读问题。
说到了锁那么必然逃不过要说一下死锁发生死锁后的检查
  1. show status like 'innodb_row_lock_%'
    1. Innodb_row_lock_current_waits 当前正在有多少等待锁
    2. Innodb_row_lock_time 一共等待了多少时间
    3. Innodb_row_lock_time_avg 平均等多少时间
    4. Innodb_row_lock_time_max 最大等多久
    5. Innodb_row_lock_waits 一共出现过多少次等待
  2. select * from information_schema.INNODB_TRX 能查看到当前正在运行和被锁住的事务
  3. show full processlist = select * from information_schema.processlist 能查询出是 哪个用户 在哪台机器host的哪个端口上 连接哪个数据库 执行什么指令状态与时间
死锁预防
  1. 保证访问数据的顺序
  2. 避免where的时候不用索引(这样会锁表,不仅死锁更容易产生,而且性能更加低下)
  3. 一个非常大的事务,拆成多个小的事务
  4. 尽量使用等值查询(就算用范围查询也要限定一个区间,而不要只开不闭,比如 id > 1 就锁住后面所有)
优化篇分库分表动态选择数据源

编码层 -- 实现 AbstracRoutingDataSource => 框架层 -- 实现 Mybatis Plugin => 驱动层 -- Sharding-JDBC(配置多个数据源,根据自定义实现的策略对数据进行分库分表存储)核心流程,SQL解析=>执行优化=>SQL数据库路由=>SQL改变(比如分表,改表名)=>SQL执行=>结果归并) => 代理层 -- Mycat(将所有与数据库的连接独立出来。全部由Mycat连接,其他服务访问Mycat获取数据) => 服务层 -- 特殊的SQL版本

MYSQL如何做优化

说到底我们学习这么多知识都是为了能更好使用MYSQL,那就让我们来实 *** 一下,建立一个完整的优化体系

要想获得更好的查询性能,可以从这张查询执行过程入手

一、客户端连接池

添加连接池,避免每次都新建、销毁连接那我们的连接池是不是越多越好呢? 有兴趣的盆友可以看看这篇文章:About Pool Sizing

我大概总结一下:

  1. 我们并发的执行SQL,并不会因为连接数量增多而变快。为什么呢?如果我有10000连接同时并发执行,难道不比你10个连接执行快得多吗? 答案是否定的,不仅不快反而越来越慢。
    1. 在计算机中,我们都知道只有CPU才能真正去执行线程。而 *** 作系统因为用时间分片的技术,让我们以为一个CPU内核执行了多个线程
    2. 但其实上一个CPU在某个时间段只能执行一个线程,所以无论我们怎么增加并发,CPU还是只能在这个时间段里处理这么多数据。
    3. 那就算CPU处理不了这么多数据,又怎么会变慢?因为时间分片,当多个线程看起来在"同时执行",其实他们之间的上下文切换十分耗时
    4. 所以,一旦线程的数量超过了CPU核心的数量,再增加线程数系统就只会更慢,而不是更快。
  2. 当然,这只是其中最核心的原因,磁盘同样也会对速度有影响,同时也对我们连接数配置有影响。
    1. 比如我们用的机械硬盘,我们要通过旋转,寻址到某个位置,再进行I/O *** 作,这个时候,CPU就可以把时间,分片给其他线程,以提升处理效率和速度
    2. 所以,如果你用的是机械硬盘,我们通常可以多添加一些连接数,保持高并发
    3. 但如果你用的是 SSD 呢,因为I/O等待时间非常短,所以我们就不能添加过多连接数
  3. 通过来说你需要遵循这么一个公式:线程数 = ((核心数 * 2) + 有效磁盘数)。比如一台 i7 4core 1hard disk的机器,就是 4 * 2 + 1 = 9
  4. 看到这个公式不知道大家是不是很眼熟,这不仅适用于数据库连接,也适用于任何很多CPU计算和I/O的场景 比如:设置最大线程数等
二、数据库整体设计方案第三方缓存

如果并发非常大,就不能让他们全打到数据库上,在客户端连接数据库查询时,添加如Redis这种三方缓存

集群方式部署数据库

既然我们一个数据库承受不了巨大的并发,那为什么不多添加几台机器呢? 主从复制原理图

从图中我们不难看出、Mysql主从复制 读写分离 异步复制的特性。

  • tips: 在把Binary Log写入relay log之后,slave都会把最新读取到的Binary Log Position记录到master info上,下一次就直接从这个位置去取。
不同方式的主从复制

上面这种异步的主从复制,很明显的一个问题就是,更新不及时的问题。当写入一个数据后,马上有用户读取,读取的还是之前的数据,也就是存在着延时。 要解决延时的问题,就需要引入 事务

  1. 全同步复制,事务方式执行,主节点先写入,然后让所有slave写,必须要所有 从节点 把数据写完,才返回写成功,这样的话会大大影响写入的性能
  2. 半同步复制,只要有一个salve写入数据,就算成功。(如果需要半同步复制,主从节点都需要安装semisync_mater.so和 semisync_slave.so插件)
  3. GTID(global transaction identities)复制,主库并行复制的时候,从库也并行复制,解决主从同步复制延迟,实现自动的failover动作,即主节点挂掉,选举从节点后,能快速自动避免数据丢失。
集群高可用方案
  1. 主从 HAPrxoy + keeplive
  2. NDB
  3. Glaera Cluster for MySQL
  4. MHA(Master-Mater replication manager for MySQL),MMM(MySQL Master High Available)
  5. MGR(MySQL Group Replication) => MySQL Cluster
分表

对数据进行分类划分,分成不同表,减少对单一表造成过多锁 *** 作影响性能

表结构
  1. 设计合理字段类型
  2. 设计合理字段长度
三、优化器与执行引擎慢日志

开启show_query_log,执行时间超过变量long_query_time的SQL会被记录下来。 可以使用mysqldumpslow /var/lib/mysql/mysql-slow.log,还有很多插件可以提供比这个更优雅的分析,这里就不详细讲了。

explain分析SQL

任何SQL在写完之后都应该explain一下

1. 驱动表 - 比如滥用left/right join导致性能低下
  1. 使用left/right join会直接指定驱动表,在MYSQL中,默认使用Nest loop join进行表关联(即通过驱动表的结果集作为循环基础数据,然后通过此集合中的每一条数据筛选下一个关联表的数据,最后合并结果,得出我们常说的临时表)。
  2. 如果驱动表的数据是 百万千万级别的,可想而知这联表查询得有多慢。但是反过来,如果以小表作为驱动表,借助千万级表索引查询就能变得很快。
  3. 如果你不确定到底该用谁来作为驱动表,那么请交给优化器来决定,比如:select xxx from table1, table2, table3 where ···,优化器会将查询记录行数少的表作为驱动表。
  4. 如果你就是想自己指定驱动表,那么请拿好Explain武器,在Explain的结果中,第一个就是基础驱动表
  5. 排序。同样的,对不同排序也是有很大的性能差异,我们尽量对驱动表进行排序,而不要对临时表,也就是合并后的结果集进行排序。即执行计划中出现了 using temporary,就需要进行优化。
2. 执行计划各参数含义
  1. select_type(查询的类型):普通查询复杂查询(联合查询、子查询等)
    1. SIMPLE,查询不包含子查询或者UNION
    2. PRIMARY,如果查询包含复杂查询的子结构,那么就需要用到主键查询
    3. SUBQUERY,在select或者where中包含 子查询
    4. DERIVED,在from中包含子查询
    5. UNION RESULT,从union表查询子查询
  2. table 使用到的表名
  3. type(访问类型),找到所需行的方式,从上往下,查询速度越来越快
    1. const或者system 常量级别的扫描,查询表最快的一种,system是const的一种特殊情况(表中只有一条数据)
    2. eq_ref 唯一性索引扫描
    3. ref 非唯一性索引扫描
    4. range 索引的范围扫描,比如 between、<、>等范围查询
    5. index (index full)扫描全部索引树
    6. ALL 扫描全表
    7. NULL,不需要访问表或者索引
  4. possible_keys,给出使用哪个索引能找到表中的记录。这里被列出的索引不一定使用
  5. key:到底哪一个索引被真正使用到了。如果没有则为NULL
  6. key_len:使用的索引所占用的字节数
  7. ref:哪个字段或者常数和索引(key)一起被使用
  8. rows:一共扫描了多少行
  9. filtered(百分比):有多少数据在server层还进行了过滤
  10. Extra:额外信息
    1. only index 信息只需要从索引中查出,可能用到了覆盖索引,查询非常快
    2. using where 如果查询没有使用索引,这里会在server层过滤再使用 where来过滤结果集
    3. impossible where 啥也没查出来
    4. using filesort ,只要没有通过索引来排序,而是使用了其他排序的方式就是 filesort
    5. using temporary(需要通过临时表来对结果集进行暂时存储,然后再进行计算。)一般来说这种情况都是进行了DISTINCT、排序、分组
    6. using index condition 索引下推,上文讲过,就是把server层这个过滤 *** 作下推到引擎层
四、存储引擎
  1. 当仅仅是插入与查询比较多的时候,可以使用MyISAM存储引擎
  2. 当只是使用临时数据,可以使用memory
  3. 插入、更新、查询等并发数很多时,可以使用InnoDB
总结

从五个层次回答MYSQL优化,由上至下

  1. SQL与索引
  2. 存储引擎与表结构
  3. 数据库架构
  4. MySQL配置
  5. 硬件与 *** 作系统

除此之外,查数据慢,要不仅仅拘留于一味的 "优化" 数据库,而是要从业务应用层面去分析。比如对数据进行缓存,对请求进行限流等。

我们下篇文章见

相关免费学习推荐:mysql视频教程

以上就是一篇文章让你搞懂MYSQL底层原理的详细内容,

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/sjk/704334.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-04-23
下一篇 2022-04-23

发表评论

登录后才能评论

评论列表(0条)

保存