先说一下为什么会有主库延迟这个问题。随着互联网业务数量量越来越大,伴随着我们数据库的DB能力也要随之增强。当下最贴合生产数据库模式的应该也就是主从库+读写分离+缓存中间件等一系列的解决方案。我们这里只讲一下MySQL的本身问题。
如上图所示,A是主库,B是从库。提到高可用问题,肯定不能A一直是主库,B一直是从库。所以就存在了主从切换的问题。下面介绍一下切换的流程。
主从A在执行一个事务的时候,写入binlog日志,我们把这个步骤记为T1。
之后主库A为了同步,把binlog日志传给从库B,备库B接收完这个binlog我们记为T2。
最终备库B执行这个binlog同步数据,我们记为T3
所谓的主从延迟就是在执行同一个事务的时候,在备库执行完成的时间和主库执行完成的时间之间的差值,也就是 T3-T1。
你可以在备库上执行 show slave status
命令,它的返回结果里面会显示 seconds_behind_master
,用于表示当前备库延迟了多少秒。
可以看到,seconds_behind_master
就是就是主库执行的时间 -
从库执行的时间差。这个值的精准度是精确到秒的。这里有个很有意思的函数,我们介绍一下。这个函数也帮我们解决了时间一致性的问题
SELECT UNIX_TIMESTAMP()
主从库在做数据同步的时候,会通过以上函数来获取当前主库的系统时间,如果这时候发现主库的系统时间与自己不一致,备库在执行 seconds_behind_master 计算的时候会自动扣掉这个差值。
在网络正常的情况下,主从传给备库的binlog是很短的。所以主要延迟来源于从库接收完binlog和执行完这个事务之间的时间差。
主从延迟来源
硬件问题
第一种可能就是硬件问题,一些小公司会考虑把多个备库放在一台机器上,把少量的主库放在一台机器上。认为读库的需求比写库小。其实不是这样的。从库要做到数据同步一致性,所以更新请求的IPOS的压力是差不多的。
解决方案: 我们一般采用对称部署。就是主库与从库采用相同规格的服务器进行部署使用!
压力过大
主库提供写的能力,所以很多人员对主库一般都是小心翼翼的。导致测试的请求都打到了备库上,导致备库压力过大,在处理数据的时候产生延迟。
解决方案: 这种情况可以这样处理
- 一主多从。除了备库外,可以多接几个从库,让这些从库来分担读的压力。
- 通过 binlog 输出到外部系统,比如 Hadoop 这类系统,让外部系统提供统计类查询的能力。
大事务
这种情况就是非常好理解的了。比如我们在一个主库删除一些历史数据。主库上必须等操作执行完全之后才会写入binlog,然后再传给从库。所以如果主库上执行10分钟,那么备份到从库上也会执行10分钟。
这里理解不了的话,我们可以查看上一篇的binlog组成。主要有三种格式,row,statement,mixed。在执行binlog的时候会执行大量的数据。
大表DDL
大表DDL的话,我们之前在描述删除《表数据,为什么空间没变》的时候大概介绍了一些。如果有不清楚的可以关注【微信公众号:欢少的成长之路】。
如果对很大的表来说,操作DDL是很消耗IO和CPU资源的。所以我们一般建议使用gh-ost
方案进行。
从库复制能力
最后一种原因就是从库的并行复制能力。这个知识点,我们在后续再进行介绍,东西比较多!
可靠性优先策略
介绍一下MySQL的可靠性优先策略。这里主要处理的是 主从库的选择问题。具体的流程如下
- 判断备库B的
seconds_behind_master
是否小于某个值,如果大于某个值的话延迟太大会影响业务数据的,所以一定要小于某个值的时候才可以继续下一步 - 把主库A改成只读状态,readonly改为true
- 再判断
seconds_behind_master
的值,直到这个值变成0为止。 - 把备库B改成读写状态,也就是把readonly改为flase
- 最后把业务的请求都打到B上
如上图所示:SBM就是seconds_behind_master
的缩写。
可以看到,这个过程是有不可用时间的。当把主库A改成readonly的时候,同步给从库B的时候。从库B也改成了readonly。那么这段时间主从库都是不可写的。直接从库B恢复完binlog才正常执行。
最耗时的是在从库B执行binlog日志的时候,这也是为什么需要第一步先判断SBM的原因。只有确保延迟足够小。在后续中才会缩小误差。
可用性优先策略
除了可靠性优先策略,还有一个策略是可用性优先策略。
如果我不把数据同步完成之后,就直接把访问切过去,那几乎就没有不可用时间了。我们把这个过程称为可用性优先策略。但是另一个弊端就暴露出来了,无法保证数据一致问题。
举例说明一下
假设有一个表 t,并且插入三行数据:
mysql> CREATE TABLE `t` (
`id` int(11) unsigned NOT NULL AUTO_INCREMENT,
`c` int(11) unsigned DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB;
insert into t(c) values(1),(2),(3);
这个表定义了一个自增主键 id,初始化数据后,主库和备库上都是 3 行数据。接下来,业务人员要继续在表 t 上执行两条插入语句的命令,依次是:
insert into t(c) values(4);
insert into t(c) values(5);
假设,现在主库上其他的数据表有大量的更新,导致主备延迟达到 5 秒。在插入一条 c=4 的语句后,发起了主备切换。 如下图,可用性优先策略且binlog_format=mixed的流程
- 步骤 2 中,主库 A 执行完 insert 语句,插入了一行数据(4,4),之后开始进行主备切换。
- 步骤 3 中,由于主备之间有 5 秒的延迟,所以备库 B 还没来得及应用“插入 c=4”这个中转日志,就开始接收客户端“插入 c=5”的命令。
- 步骤 4 中,备库 B 插入了一行数据(4,5),并且把这个 binlog 发给主库 A。
- 步骤 5 中,备库 B 执行“插入 c=4”这个中转日志,插入了一行数据(5,4)。而直接在备库 B 执行的“插入 c=5”这个语句,传到主库 A,就插入了一行新数据(5,5)。
最后的结果就是,主库 A 和备库 B 上出现了两行不一致的数据。可以看到,这个数据不一致,是由可用性优先流程导致的。
那么,如果我还是用可用性优先策略,但设置 binlog_format=row,情况又会怎样呢?
因为 row 格式在记录 binlog 的时候,会记录新插入的行的所有字段值,所以最后只会有一行不一致。而且,两边的主备同步的应用线程会报错 duplicate key error 并停止。也就是说,这种情况下,备库 B 的 (5,4) 和主库 A 的 (5,5) 这两行数据,都不会被对方执行。
- 使用 row 格式的 binlog 时,数据不一致的问题更容易被发现。而使用 mixed 或者 statement 格式的 binlog 时,数据很可能悄悄地就不一致了。如果你过了很久才发现数据不一致的问题,很可能这时的数据不一致已经不可查,或者连带造成了更多的数据逻辑不一致。
- 主备切换的可用性优先策略会导致数据不一致。因此,大多数情况下,我都建议你使用可靠性优先策略。毕竟对数据服务来说的话,数据的可靠性一般还是要优于可用性的。
按照可靠性优先的思路,异常切换会是什么效果?
假设,主库 A 和备库 B 间的主备延迟是 30 分钟,这时候主库 A 掉电了,HA 系统要切换 B 作为主库。我们在主动切换的时候,可以等到主备延迟小于 5 秒的时候再启动切换,但这时候已经别无选择了。
采用可靠性优先策略的话,你就必须得等到备库 B 的 seconds_behind_master=0 之后,才能切换。但现在的情况比刚刚更严重,并不是系统只读、不可写的问题了,而是系统处于完全不可用的状态。因为,主库 A 掉电后,我们的连接还没有切到备库 B。
那能不能直接切换到备库 B,但是保持 B 只读呢?
这样也不行。因为,这段时间内,中转日志还没有应用完成,如果直接发起主备切换,客户端查询看不到之前执行完成的事务,会认为有“数据丢失”。虽然随着中转日志的继续应用,这些数据会恢复回来,但是对于一些业务来说,查询到“暂时丢失数据的状态”也是不能被接受的。
链接:juejin.cn/post/7012129657004752910
来源:掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。