Redis和MySQL如何保持数据一致性
目录
在高并发的场景下,大量的请求直接访问 MySQL 很容易造成性能问题。所以,我们都会用 Redis 来做数据的缓存,削减对数据库的请求。
但是,MySQL 和 Redis 是两种不同的数据库,如何保证不同数据库之间数据的一致性就非常关键了。
数据不一致的原因
- 在高并发的业务场景下,数据库大多数情况都是用户并发访问最薄弱的环节。
- 所以,就需要使用 redis 做一个缓冲操作,让请求先访问到 redis,而不是直接访问 MySQL 等数据库。
- 读取缓存步骤一般没有什么问题,但是一旦涉及到数据更新:数据库和缓存更新,就容易出现缓存(Redis)和数据库(MySQL)间的数据一致性问题。
- 这个业务场景,主要是解决读数据从 Redis 缓存,一般都是按照下图的流程来进行业务操作。
缓存先后删除问题
不管是先写 MySQL 数据库,再删除 Redis 缓存;还是先删除缓存,再写库,都有可能出现数据不一致的情况。
先删除缓存
- 如果先删除 Redis 缓存数据,然而还没有来得及写入 MySQL,另一个线程就来读取
- 这个时候发现缓存为空,则去 Mysql 数据库中读取旧数据写入缓存,此时缓存中为脏数据。
- 然后数据库更新后发现 Redis 和 Mysql 出现了数据不一致的问题
后删除缓存
- 如果先写了库,然后再删除缓存,不幸的写库的线程挂了,导致了缓存没有删除
- 这个时候就会直接读取旧缓存,最终也导致了数据不一致情况
- 因为写和读是并发的,没法保证顺序,就会出现缓存和数据库的数据不一致的问题
解决方案
-
延时双删策略
基本思路:
在写库前后都进行 redis.del(key)操作,并且设定合理的超时时间。
具体步骤:
- 先删除缓存
- 再写数据库
- 休眠 500 毫秒
- 再次删除缓存
问题:这个 500 毫秒怎么确定的,具体该休眠多久时间呢?
- 需要评估自己的项目的读数据业务逻辑的耗时。
- 这么做的目的,就是确保读请求结束,写请求可以删除读请求造成的缓存脏数据。
- 当然这种策略还要考虑 redis 和数据库主从同步的耗时。
- 最后的的写数据的休眠时间:则在读数据业务逻辑的耗时基础上,加几百 ms 即可。
比如:休眠 1 秒。
设置缓存过期时间是关键点
- 从理论上来说,给缓存设置过期时间,是保证最终一致性的解决方案
- 所有的写操作以数据库为准,只要到达缓存过期时间,缓存删除
- 如果后面还有读请求的话,就会从数据库中读取新值然后回填缓存
方案缺点
结合双删策略+缓存超时设置,这样最差的情况就是:
- 在缓存过期时间内发生数据存在不一致
- 同时又增加了写请求的耗时。
-
异步更新缓存(基于 Mysql binlog 的同步机制)
整体思路:
- 涉及到更新的数据操作,利用 Mysql binlog 进行增量订阅消费
- 将消息发送到消息队列
- 通过消息队列消费将增量数据更新到 Redis 上
- 操作情况
读取 Redis 缓存:热数据都在 Redis 上 写 Mysql:增删改都是在 Mysql 进行操作 更新 Redis 数据:Mysql 的数据操作都记录到 binlog,通过消息队列及时更新到 Redis 上
Redis 更新过程
数据操作主要分为两种:
- 一种是全量(将所有数据一次性写入 Redis)
- 一种是增量(实时更新)
这里说的是增量,指的是 mysql 的 update、insert、delate 变更数据。
读取 binlog 后分析 ,利用消息队列,推送更新各台的 redis 缓存数据。
- 这样一旦 MySQL 中产生了新的写入、更新、删除等操作,就可以把 binlog 相关的消息推送至 Redis
- Redis 再根据 binlog 中的记录,对 Redis 进行更新
- 其实这种机制,很类似 MySQL 的主从备份机制,因为 MySQL 的主备也是通过 binlog 来实现的数据一致性
这里的消息推送工具你也可以采用别的第三方:kafka、rabbitMQ 等来实现推送更新 Redis!
总结
在高并发应用场景下,如果是对数据一致性要求高的情况下,要定位好导致数据和缓存不一致的原因。
解决高并发场景下数据一致性的方案有两种,分别是延时双删策略和异步更新缓存两种方案。
另外,设置缓存的过期时间是保证数据保持一致性的关键操作,需要结合业务进行合理的设置。