假设一个用户管理系统,每个人注册都有一个唯一的手机号,而且业务代码已经保证了不会写入两个重复的手机号。如果用户管理系统需要按照手机号查姓名,就会执行类似这样的 SQL 语句:
select name from users where mobile = '15202124529';
通常会考虑在 mobile 字段上建索引。由于手机号字段相对较大,通常基本不会把手机号当做主键,那么现在就有两个选择:
1. 给 id_card 字段创建唯一索引
2. 创建一个普通索引
如果业务代码已经保证了不会写入重复的身份z号,那么这两个选择逻辑上都是正确的。
从性能的角度考虑,选择唯一索引还是普通索引?如图:假设字段 k 上的值都不重复
接下来,就从这两种(ID,k)索引对查询语句和更新语句的性能影响来进行分析
查询过程假设,执行查询的语句是 select id from T where k=5。这个查询语句在索引树上查找的过程,先是通过 B+ 树从树根开始,按层搜索到叶子节点,也就是图中右下角的这个数据页,然后可以认为数据页内部通过二分法来定位记录(数据页内部通过有序数组保存节点。数据页之间通过双向链表串接)。
- 对于普通索引来说,查找到满足条件的第一个记录 (5,500) 后,需要查找下一个记录,直到碰到第一个不满足 k=5 条件的记录。
- 对于唯一索引来说,由于索引定义了唯一性,查找到第一个满足条件的记录后,就会停止继续检索。
那么,这个不同带来的性能差距会有多少呢?答案是,微乎其微。
原因:除非 Key 的列非常大,有连续多个 Key 占满了一个 page,才会引起一次 page 的 IO,这样才会产生比较明显的性能差异,从均摊上看,差异几乎可以不算。
InnoDB 的数据是按数据页为单位来读写的。也就是说,当需要读一条记录的时候,并不是将这个记录本身从磁盘读出来,而是以页为单位,将其整体读入内存。在 InnoDB 中,每个数据页的大小默认是 16KB。
更新过程为了说明普通索引和唯一索引对更新语句性能的影响这个问题,需要先介绍一下 change buffer
- 当需要更新一个数据页时,如果数据页在内存中就直接更新,
- 而如果这个数据页还没有在内存中的话,在不影响数据一致性的前提下:
- InnoDB 会将这些 更新 *** 作 缓存在 change buffer 中,这样就不需要从磁盘中读入这个数据页了。
- 在下次查询需要访问这个数据页的时候,将数据页读入内存,
- 然后执行 change buffer 中与这个页有关的 *** 作。
通过这种方式就能保证这个数据逻辑的正确性
需要说明的是,虽然名字叫作 change buffer,实际上它是可以持久化的数据。也就是说,change buffer 在内存中有拷贝,也会被写入到磁盘上。
把change buffer中的 *** 作,应用到旧的数据页,得到新的数据页的过程,应该称为merge。
Ps. 除了访问这个数据页会触发 merge 外,系统有后台线程会定期 merge。在数据库正常关闭(shutdown)的过程中,也会执行 merge *** 作。
(change buffer的merge *** 作,先把change buffer的 *** 作更新到内存的数据页中,此 *** 作写到redo log中,mysql未宕机,redo log写满后需要移动check point点时,通过判断内存中数据和磁盘是否一致即是否是脏页来刷新到磁盘中,当mysql宕机后没有内存即没有脏页,通过redo log来恢复。)
显然,如果能够将更新 *** 作先记录在 change buffer,减少读磁盘,语句的执行速度会得到明显的提升。
而且,数据读入内存是需要占用 buffer pool 的,所以这种方式还能够避免占用内存,提高内存利用率。
什么条件下可以使用 change buffer 呢?对于唯一索引来说,所有的更新 *** 作都要先判断这个 *** 作是否违反唯一性约束。
比如,要插入 (4,400) 这个记录,就要先判断现在表中是否已经存在 k=4 的记录,而这必须要将数据页读入内存才能判断。
如果都已经读入到内存了,那直接更新内存会更快,就没必要使用 change buffer 了。
因此,唯一索引的更新就不能使用 change buffer,实际上也只有普通索引可以使用。
change buffer 用的是 buffer pool 里的内存,因此不能无限增大。change buffer 的大小,可以通过参数 innodb_change_buffer_max_size 来动态设置。这个参数设置为 50 的时候,表示 change buffer 的大小最多只能占用 buffer pool 的 50%。
Ps. 数据库缓冲池(buffer pool) https://www.jianshu.com/p/f9ab1cb24230
分析:插入一个新记录 InnoDB 的处理流程理解了 change buffer 的机制,那么如果要在这张表中插入一个新记录 (4,400) 的话,InnoDB 的处理流程是怎样的
1、第一种情况是:这个记录要更新的目标页在内存中。
- 这时,InnoDB 的处理流程如下:对于唯一索引来说,找到 3 和 5 之间的位置,判断到没有冲突,插入这个值,语句执行结束;
- 对于普通索引来说,找到 3 和 5 之间的位置,插入这个值,语句执行结束。
这样看来,普通索引和唯一索引对更新语句性能影响的差别,只是一个判断,只会耗费微小的 CPU 时间。但,这不是关注的重点
2、第二种情况是,这个记录要更新的目标页不在内存中。这时,InnoDB 的处理流程如下:
- 对于唯一索引来说,需要将数据页读入内存,判断到没有冲突,插入这个值,语句执行结束;
- 对于普通索引来说,则是将更新记录在 change buffer,语句执行就结束了。
将数据从磁盘读入内存涉及随机 IO 的访问,是数据库里面成本最高的 *** 作之一。change buffer 因为减少了随机磁盘访问,所以对更新性能的提升是会很明显的。
change buffer主要是将更新 *** 作缓存起来,异步处理. 这样每次更新过来,直接记下change buffer即可,速度很快,将多次写磁盘变为一次写磁盘
change buffer 的使用场景通过上面的分析,已经清楚了使用 change buffer 对更新过程的加速作用,也清楚了 change buffer 只限于用在普通索引的场景下,而不适用于唯一索引。
普通索引的所有场景,使用 change buffer 都可以起到加速作用吗?因为 merge 的时候是真正进行数据更新的时刻,而 change buffer 的主要目的就是将记录的变更动作缓存下来,所以在一个数据页做 merge 之前,change buffer 记录的变更越多(也就是这个页面上要更新的次数越多),收益就越大。
因此,对于写多读少的业务来说,页面在写完以后马上被访问到的概率比较小,此时 change buffer 的使用效果最好。这种业务模型常见的就是账单类、日志类的系统。(适合写多读少的场景,读多写少反倒会增加change buffer的维护代价)
反过来,假设一个业务的更新模式是写入之后马上会做查询,那么即使满足了条件,将更新先记录在 change buffer,但之后由于马上要访问这个数据页,会立即触发 merge 过程。这样随机访问 IO 的次数不会减少,反而增加了 change buffer 的维护代价。所以,对于这种业务模式来说,change buffer 反而起到了副作用。(如果立即对普通索引的更新 *** 作结果执行查询,就会触发merge *** 作,磁盘中的数据会和change buffer 的 *** 作记录进行合并,产生大量io)
索引选择和实践综上分析,普通索引和唯一索引应该怎么选择:
其实,这两类索引在查询能力上是没差别的,主要考虑的是对更新性能的影响。所以,建议尽量选择普通索引。
如果所有的更新后面,都马上伴随着对这个记录的查询,那么应该关闭 change buffer。
而在其他情况下,change buffer 都能提升更新性能。在实际使用中,普通索引和 change buffer 的配合使用,对于数据量大的表的更新优化还是很明显的。
Ps. 特别地,在使用机械硬盘时,change buffer 这个机制的收效是非常显著的。所以,当有一个类似“历史数据”的库,应该特别关注这些表里的索引,尽量使用普通索引,然后把 change buffer 尽量开大,以确保这个“历史数据”表的数据写入速度。
change buffer 和 redo log理解了 change buffer 的原理,可能会联想到 redo log 和 WAL(Write-Ahead Logging,它的关键点就是先写日志,再写磁盘)。
WAL 提升性能的核心机制,也的确是尽量减少随机读写
在表上执行这个插入语句:
mysql> insert into t(id,k) values(id1,k1),(id2,k2);
假设当前 k 索引树的状态,查找到位置后,k1 所在的数据页在内存 (InnoDB buffer pool) 中,k2 所在的数据页不在内存中。如图 是带 change buffer 的更新状态图。
图3 带 change buffer 的更新过程
分析这条更新语句,你会发现它涉及了四个部分:
内存、redo log(ib_log_fileX)、 数据表空间(t.ibd)、系统表空间(ibdata1)。
数据表空间:就是一个个的表数据文件,对应的磁盘文件就是“表名.ibd”; 系统表空间:用来放系统信息,如数据字典等,对应的磁盘文件是“ibdata1”
数据表空间 和 系统表空间 似乎代表的就是B+树对应的那个复杂的结构
这条更新语句做了如下的 *** 作(按照图中的数字顺序):
- Page 1 在内存中,直接更新内存;
- Page 2 没有在内存中,就在内存的 change buffer 区域,记录下“我要往 Page 2 插入一行”
- 这个信息将上述两个动作记入 redo log 中(图中 3 和 4)。
做完上面这些,事务就可以完成了。所以,你会看到,执行这条更新语句的成本很低,就是写了两处内存,然后写了一处磁盘(两次 *** 作合在一起写了一次磁盘),而且还是顺序写的。
change buffer和redo log颗粒度不一样,因为change buffer只是针对如果更改的数据所在页不在内存中才暂时储存在change buffer中。而redo log会记录一个事务内进行数据更改的所有 *** 作,即使修改的数据已经在内存中了,那也会记录下来
同时,图中的两个虚线箭头,是后台 *** 作,不影响更新的响应时间。
那在这之后的读请求,要怎么处理呢?
比如,我们现在要执行 select * from t where k in (k1, k2)
。
如果读语句发生在更新语句后不久,内存中的数据都还在,那么此时的这两个读 *** 作就与系统表空间(ibdata1)和 redo log(ib_log_fileX)无关了。
图 4 带 change buffer 的读过程
从图中可以看到:读 Page 1 的时候,直接从内存返回。
WAL 之后如果读数据,是不是一定要读盘,是不是一定要从 redo log 里面把数据更新以后才可以返回?
其实是不用的。虽然磁盘上还是之前的数据,但是这里直接从内存返回结果,结果是正确的。要读 Page 2 的时候,需要把 Page 2 从磁盘读入内存中,然后应用 change buffer 里面的 *** 作日志,生成一个正确的版本并返回结果。可以看到,直到需要读 Page 2 的时候,这个数据页才会被读入内存。
如果要简单地对比这两个机制在提升更新性能上的收益的话,redo log 主要节省的是随机写磁盘的 IO 消耗(转成顺序写),而 change buffer 主要节省的则是随机读磁盘的 IO 消耗。
思考题:1、通过图 3 可以看到,change buffer 一开始是写内存的,那么如果这个时候机器掉电重启,会不会导致 change buffer 丢失呢?change buffer 丢失可不是小事儿,再从磁盘读入数据可就没有了 merge 过程,就等于是数据丢失了。会不会出现这种情况呢?
答:
1.change buffer有一部分在内存有一部分在ibdata.
做purge *** 作,应该就会把change buffer里相应的数据持久化到ibdata
2.redo log里记录了数据页的修改以及change buffer新写入的信息
如果掉电,持久化的change buffer数据已经purge,不用恢复。主要分析没有持久化的数据
情况又分为以下几种:
总结(1)change buffer写入,redo log虽然做了fsync但未commit,binlog未fsync到磁盘,这部分数据丢失
(2)change buffer写入,redo log写入但没有commit,binlog以及fsync到磁盘,先从binlog恢复redo log,再从redo log恢复change buffer(3)change buffer写入,redo log和binlog都已经fsync.那么直接从redo log里恢复。
到此这篇关于Mysql普通索引与唯一索引选择的文章就介绍到这了,更多相关Mysql普通索引与唯一索引选择内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)