如何保证数据库和缓存双写一致性-----一篇足以

发布时间:2024年01月13日

????????保证数据库和缓存双写一致性的必要性和优点在于确保系统数据的准确性和可靠性。通过双写一致性机制,系统可以防止因为缓存数据与数据库数据不一致而导致的业务错误。这种做法有效降低了系统的脆弱性,提高了数据的完整性。同时,通过缓存加速读取速度,系统性能得到了显著提升。通过双写一致性策略,即在写入数据库的同时更新缓存,确保了数据的同步性,为系统提供了更高的可用性和稳定性,为用户提供更加流畅的体验。

1.常见方案

????????通常情况下,我们使用缓存的主要目的是为了提升查询的性能。大多数情况下,我们是这样使用缓存的:

  1. 用户请求过来之后,先查缓存有没有数据,如果有则直接返回。

  2. 如果缓存没数据,再继续查数据库。

  3. 如果数据库有数据,则将查询出来的数据,放入缓存中,然后返回该数据。

  4. 如果数据库也没数据,则直接返回空。

????????这是常见的缓存的用法,但是这个用法忽略了非常重要的细节:如果数据库中的某条数据,放入缓存之后,又立马被更新了,那么该如何更新缓存呢?

????????这个时候,不更新缓存又不行,如果不更新,在很长的时间里(取决于缓存数据的过期时间),和用户进行交互的数据就一直是从缓存中拿到的旧值,而非从数据库中获取的最新值,这样就造成了数据不一致的结果

那么,如何解决这个问题,现在有以下四种方案:

  1. 先写缓存,再写数据库

  2. 先写数据库,再写缓存

  3. 先删缓存,再写数据库

  4. 先写数据库,再删缓存

2.先写缓存,再写数据库?

????????对于更新缓存的方案,很多人第一个想到的可能就是在写操作中直接更新缓存(写缓存),更加直接明了,那么问题来了:在写操作中,到底是先写缓存还是先写数据库呢?

先说先写缓存,再写数据库

某一个用户的每一次写操作,如果刚写完缓存,突然网络出现了异常,导致写数据库失败了。

????????结果就是,缓存中更新了最新的数据,而数据库中没有,缓存和数据库的数据又不一致了,如果此时用户进行查询请求,正好读到了缓存中的该条数据,就会出现问题。

????????我们都清楚,缓存的主要目的是把数据库的数据临时保存在内存中,便于后续的查询,提高查询的速度。

但如果某条数据,在数据库中都不存在,那么缓存这种“假数据”没有任何意义。

因此,先写缓存,再写数据库的方案是不可取的,在实际的工作中用的不多。

3.先写数据库,再写缓存

既然先写缓存不行,那么先写数据库总行吧。

?用户的写操作,先写数据库,再写缓存,可以避免之前的“假数据”的问题。

但是带来了新的问题:写缓存的时候失败了,怎么办呢?

3.1写缓存失败了

如果写数据库和写缓存操作,放在同一个事务当中,当写缓存失败了,我们可以把写入数据库的数据进行回滚。

?如果并发量比较小,对接口性能要求不太高的系统,可以这么使用,这么玩。

但如果在高并发的业务场景中,写数据库和写缓存,都属于远程操作。为了防止出现大事务,造成的死锁问题,通常建议写数据库和写缓存不要放在同一个事务中。

也就是说该方案中,如果写数据库成功了,但写缓存失败了,数据库中已写入的数据不会回滚。

但是可以把写数据库和写缓存放到同一个事务中实现小并发量的场景。

总结一下这种情况:数据库是新数据,而缓存是旧数据,两边数据不一致

3.2高并发下的问题

假设高并发的场景中,针对同一个用户的同一条数据,有两个写数据请求:a和b,他们同时请求到业务系统。其中请求a获取的是旧数据,而请求b获取的是新数据,如下图所示:

  1. 请求a先过来,刚写完了数据库。但由于网络原因,卡顿了一下,还没来得及写缓存。

  2. 这时候请求b过来了,先写了数据库。

  3. 接下来,请求b顺利写了缓存。

  4. 此时,请求a卡顿结束,也写了缓存。

显然,在这个过程中,请求b在缓存中的新数据,被请求a的旧数据覆盖了。

也就是说:在高并发场景中,如果多个线程同时执行先写数据库,再写缓存的操作,可能就会出现数据库是新值,而缓存中是旧值,两边数据不一致的情况。

3.3浪费系统资源

????????该方案还有一个比较大的问题就是:每个写操作,写完数据库,会马上写缓存,比较浪费系统资源。

????????为什么这么说呢?

????????你可以试想一下,如果写的缓存,并不是简单的数据内容,而是要经过非常复杂的计算得出的最终结果。这样每写一次缓存,都需要经过一次非常复杂的计算,不是非常浪费系统资源吗?

尤其是cpu内存资源。

还有些业务场景比较特殊:写多读少

如果在这类业务场景中,每个用的写操作,都需要写一次缓存,有点得不偿失。

由此可见,在高并发的场景中,先写数据库,再写缓存,这套方案问题挺多的,也不太建议使用。

4.先删缓存,再写数据库

上面的方案都是直接更新缓存实现,那么换一个思路,不去直接更新缓存,而改为删除缓存呢?

删除缓存方案,同样有两种:

1.先删缓存,再写数据库

2.先写数据库,再删缓存

4.1先删缓存,再写数据库

说白了,在用户的写操作中,限制性删除缓存操作,再写数据库,这套方案可行,但是也会出问题。

4.1.1高并发下的问题?

假设在高并发的场景下,同一个用户的同一条数据,有一个读数据请求c,还有另一个写数据请求d(一个更新操作),同时请求到业务系统,如下图所示:

  1. 请求d先过来,把缓存删除了。但由于网络原因,卡顿了一下,还没来得及写数据库。

  2. 这时请求c过来了,先查缓存发现没数据,再查数据库,有数据,但是旧值。

  3. 请求c将数据库中的旧值,更新到缓存中。

  4. 此时,请求d卡顿结束,把新值写入数据库。

在这个过程当中,请求d的新值并没有被请求c写入缓存,同样会导致缓存和数据库的数据不一致的情况。

4.2.2缓存双删

在上面的场景中,一个读数据请求,一个写数据请求,当写数据请求把缓存删了之后,读数据请求,可能把当时从数据库查询出来的旧值,写入缓存当中。

有人肯定会说,这还不好办吗?请求d在写完数据库之后,把缓存重新闪一次不就行了。

这就是我们所说的缓存双删,即在写数据库之前删除一次,写完数据库之后,在删除一次。

该方案有个关键的地方是:第二次删除缓存,并非立马删除,而是要在一定的时间间隔之后,我们再重新回顾一下,高并发下读数据请求,一个写数据请求导致数据不一致的产生过程:

  1. 请求d先过来,把缓存删除了。但由于网络原因,卡顿了一下,还没来得及写数据库。

  2. 这时请求c过来了,先查缓存发现没数据,再查数据库,有数据,但是旧值。

  3. 请求c将数据库中的旧值,更新到缓存中。

  4. 此时,请求d卡顿结束,把新值写入数据库。

  5. 一段时间之后,比如:500ms,请求d将缓存删除。

?这样来看确实可以解决缓存不一致的问题。

那么,为什么一定要间隔一段时间之后,才能删除缓存呢?

请求d卡顿结束,把新值写入数据库后,请求c将数据库中的旧值,更新到缓存中。此时,如果请求d删除太快,在请求c将数据库中的旧值更新到缓存之前,就已经把缓存删除了,这次删除就没任何意义。必须要在请求c更新缓存之后,再删除缓存,才能把旧值及时删除。

所以需要在请求d中加一个时间间隔,确保请求c,或者类似请求c的其他请求,如果在缓存中设置了旧值,最终都能够被请求d删除掉。

接下来,还有一个问题:如果第二次删除缓存时,删除失败了怎么办呢?

4.2先写数据库,再删缓存

从4.1得知,先删除缓存,再写数据库,在并发的情况下,也可能会出现缓存和数据库的数据不一致的情况。接下来,我们说说先写数据库,再删缓存的情况。

在高并发的场景中,在一个读数据请求,有一个写数据请求,更新过程如下:

  1. 请求e先写数据库,由于网络原因卡顿了一下,没有来得及删除缓存。

  2. 请求f查询缓存,发现缓存中有数据,直接返回该数据。

  3. 请求e删除缓存。

?这种情况看似没有问题,但是就怕出现这种情况:缓存自己失效了

  1. 缓存过期时间到了,自动失效。

  2. 请求f查询缓存,发缓存中没有数据,查询数据库的旧值,但由于网络原因卡顿了,没有来得及更新缓存。

  3. 请求e先写数据库,接着删除了缓存。

  4. 请求f更新旧值到缓存中。

这时,缓存和数据库的数据同样出现不一致的情况下。

但这种情况还是比较少的,需要同时满足以下条件才可以:

1.缓存刚好自动失效。

2.请求f从数据库查出旧值,更新缓存的耗时,比请求e写数据库,并且删除缓存的还长。?

?我们都知道查询数据库的速度,一般比写数据库要快,更何况写完数据库,还要删除缓存,所以绝大多数情况下,写数据请求比读数据情况耗时更长。

由此可见,系统同时满足上述两个条件的概率非常小。

推荐大家使用先写数据库,在删除缓存的方案,虽说不能100%避免数据不一致问题,但出现该问题的概率,相对于其他方案来说是最小的。

但在该方案中,如果删除缓存失败了该怎么办呢??

5.删除缓存失败怎么办?

其实先写数据库,再删缓存的方案,跟缓存双删的方案一样,有一个共同的风险点,即:如果缓存删除失败了,也会导致缓存和数据库的数据不一致。

那么,删除缓存失败怎么办呢???加个重试机制?

在接口中如果更新了数据库成功了,但更新缓存失败了,可以立刻重试3次。如果其中有任何一次成功,则直接返回成功。如果3次都失败了,则写入数据库,准备后续在处理。

当然,如果你在接口中直接同步重试,该接口并发量比较高的时候,可能有点影响接口性能。

这时,就需要改成异步重试。

异步重试方式有很多种,比如:

1.每次都单独起一个线程,该线程专门做重试的工作。但如果在高并发的场景下,可能会创建太多的线程,导致系统OOM问题,不太建议使用。

2.将重试的任务交给线程池处理,但如果服务器重启,部分数据可能会丢失。

3.将重试数据写表,然后使用elastic-job等定时任务进行重试。

4.将重试的请求写入mq等消息中间件中,在mq的consumer中处理。

5.订阅mysql的binlog,在订阅者中,如果发现了更新数据请求,则删除相应的缓存。

6.定时任务

使用定时任务重试的具体方案如下:

1.当用户操作写完数据库,但删除缓存失败了,需要将用户数据写入重试表中,如下图所示:

?2.在定时任务中,异步读取重试表中的用户数据。重试表需要记录一个重试次数字段,初始值为0.然后重试5次,不断删除缓存,每重试一次该字段值+1。如果其中有任意一次成功了,则返回成功。如果重试了5次,还是失败,则我们需要在重试表中记录一个失败的状态,等待后续进一步处理。

3.在高并发场景中,定时任务推荐使用elastic-job。相对于xxl-job等定时任务,它可以分片处理,提升处理速度。同时每片的间隔可以设置成:1,2,3,5,7秒等。

使用定时任务重试的话,有个缺点就是实时性没那么高,对于实时性要求特别高的业务场景,该方案不太适用,但是对于一般场景,还是可以用一用的。

但是它有一个很大的有点,即数据是落库的,不会丢数据。?

7.mq

在高并发的业务场景中,mq(消息队列)是必不可少的技术之一。它不仅可以异步解耦,还能削峰填谷,对保证系统的稳定性是非常有意义的。

mq的生产者,生产了消息之后,通过指定的topic发送到mq服务器。然后mq的消费者,订阅该topic的消息,读取消息数据之后,做业务逻辑处理。

使用mq重试的具体方案如下:

1.当用户操作写完数据库,但删除缓存失败了,产生一条mq消息,发送给mq服务器。

2.mq消费者读取mq消息,重试5次删除缓存。如果其中有任意一次成功了,则返回成功。如果重试了5次,还是失败了,则写入死信队列中。

3.推荐mq使用RocketMq,重试机制和死信队列默认是支持的。使用起来非常方便,而且还支持顺序消息,延迟消息和事务消息等多种业务场景。

当然在该方案中,删除缓存可以完全走异步。即用户的写操作,在写数据库之后,不用立刻删除一次缓存。而直接发送mq消息,到mq服务器,然后又mq消费者全权负责删除缓存的任务。

因为mq的实时性还是比较高的,因此改良后的方案也是一种不错的选择。

8.binlog

无论是定时任务,还是mq,做重试机制,对业务都有一定的侵入性。

在使用定时任务的方案中,需要在业务代码中增加额外的逻辑,如果删除缓存失败,需要将数据写入重试表。

而使用mq的方案中,如果删除缓存失败了,需要业务代码中发送mq消息到mq服务器。

其实,还有一种更优雅的实现,即监听binlog,比如使用canal等中间件。具体方案如下:

  1. 在业务接口中写数据库之后,就不管了,直接返回成功。

  2. mysql服务器会自动把变更的数据写入binlog中。

  3. binlog订阅者获取变更的数据,然后删除缓存。

这个方案中业务接口确实简化了一些流程,只用关心数据库操作即可,而在binlog订阅者中做缓存删除工作。

但如果只是按照图中的方案进行删除缓存,只删除了一次,也可能会失败。如何解决这个问题呢?

这就需要加上前面聊过的重试机制了,如果删除缓存失败,写入重试表,使用定时任务重试。或者写入mq,让mq自动重试。

推荐使用mq自动重试机制

在binlog订阅者中如果删除缓存失败,则发送一条mq消息到mq服务器,在mq消费者中自动重试5次。如果有任意一次成功,则直接返回成功。如果重试5次后还是失败,则该消息自动被放入死信队列,后面可能需要人工介入。

文章来源:https://blog.csdn.net/zoroly/article/details/135557836
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。