缓存穿透、雪崩、击穿

Lewis
2022-02-17 / 0 评论 / 27 阅读 / 正在检测是否收录...

缓存穿透

定义:
指查询一个一定不存在的数据,由于缓存是不命中的,将去查询数据库,但数据库也无此记录,我们没有将这次查询的null写入缓存,这将导致这个不存在的数据每次请求都要到存储层查询,失去了缓存的意义。
造成缓存穿透的基本原因有两个:
第一, 自身业务代码或者数据出现问题。
第二, 一些恶意攻击、 爬虫等造成大量空命中。

风险:
利用不存在的数据进行攻击,数据库瞬时压力增大,系统崩溃

解决:
1、null结果缓存,并加入短暂的过期时间。

 String get(String key) {
 // 从缓存中获取数据
 String cacheValue = cache.get(key);
 // 缓存为空
 if (StringUtils.isBlank(cacheValue)) {
 // 从存储中获取
 String storageValue = storage.get(key);
 cache.set(key, storageValue);
 // 如果存储数据为空, 需要设置一个过期时间(300秒)
 if (storageValue == null) {
 cache.expire(key, 60 * 5);
 }
 return storageValue;
 } else {
 // 缓存非空
 return cacheValue;
 }
 }

2、布隆过滤器
对于恶意攻击,向服务器请求大量不存在的数据造成的缓存穿透,还可以用布隆过滤器先做一次过滤,对于不存在的数据布隆过滤器一般都能够过滤掉,不让请求再往后端发送。当布隆过滤器说 某个值存在时,这个值可能不存在;当它说不存在时,那就肯定不存在。
kzxsxhk1.png
布隆过滤器就是一个大型的位数组和几个不一样的无偏 hash 函数。所谓无偏就是能够把元素的 hash 值算得比较均匀。
向布隆过滤器中添加 key 时,会使用多个 hash 函数对 key 进行 hash 算得一个整数索引值然后对位数组长度进行取模运算得到一个位置,每个 hash 函数都会算得一个不同的位置。再把位数组的这几个位置都置为 1 就完成了 add 操作。
向布隆过滤器询问 key 是否存在时,跟 add 一样,也会把 hash 的几个位置都算出来,看看位数组中这几个位置是否都为 1,只要有一个位为 0,那么说明布隆过滤器中这个key 不存在。如果都是 1,这并不能说明这个 key 就一定存在,只是极有可能存在,因为这些位被置为 1 可能是因为其它的 key 存在所致。如果这个位数组比较稀疏,这个概率就会很大,如果这个位数组比较拥挤,这个概率就会降低。
这种方法适用于数据命中不高、 数据相对固定、 实时性低(通常是数据集较大) 的应用场景, 代码维护较为
复杂, 但是缓存空间占用很少。
示例伪代码:

 package com.redisson;

 import org.redisson.Redisson;
 import org.redisson.api.RBloomFilter;
 import org.redisson.api.RedissonClient;
 import org.redisson.config.Config;

 public class RedissonBloomFilter {

 public static void main(String[] args) {
 Config config = new Config();
 config.useSingleServer().setAddress("redis://localhost:6379");
 //构造Redisson
 RedissonClient redisson = Redisson.create(config);

 RBloomFilter<String> bloomFilter = redisson.getBloomFilter("nameList");
 //初始化布隆过滤器:预计元素为100000000L,误差率为3%,根据这两个参数会计算出底层的bit数组大小
 bloomFilter.tryInit(100000000L,0.03);
 //将zhuge插入到布隆过滤器中
 bloomFilter.add("zhuge");

 //判断下面号码是否在布隆过滤器中
 System.out.println(bloomFilter.contains("guojia"));//false
 System.out.println(bloomFilter.contains("baiqi"));//false
 System.out.println(bloomFilter.contains("zhuge"));//true
 }
 }

使用布隆过滤器需要把所有数据提前放入布隆过滤器,并且在增加数据时也要往布隆过滤器里放,布隆过滤器缓存过滤伪代码:

 //初始化布隆过滤器
 RBloomFilter<String> bloomFilter = redisson.getBloomFilter("nameList");
 //初始化布隆过滤器:预计元素为100000000L,误差率为3%
 bloomFilter.tryInit(100000000L,0.03);

 //把所有数据存入布隆过滤器
 void init(){
 for (String key: keys) {
 bloomFilter.put(key);
 }
 }

 String get(String key) {
 // 从布隆过滤器这一级缓存判断下key是否存在
 Boolean exist = bloomFilter.contains(key);
 if(!exist){
 return "";
 }
 // 从缓存中获取数据
 String cacheValue = cache.get(key);
 // 缓存为空
 if (StringUtils.isBlank(cacheValue)) {
 // 从存储中获取
 String storageValue = storage.get(key);
 cache.set(key, storageValue);
 // 如果存储数据为空, 需要设置一个过期时间(300秒)
 if (storageValue == null) {
 cache.expire(key, 60 * 5);
 }
 return storageValue;
 } else {
 // 缓存非空
 return cacheValue;
 }
 }

注意:布隆过滤器不能删除数据,如果要删除得重新初始化数据。

缓存雪崩

定义:
设置的key采用了相同的过期时间,导致缓存在某一时刻同时失效,请求全部进入DB

解决:
在原有的失效时间的基础上增加一个随机值

缓存击穿

定义:
某个key是一个热点数据,如果大量这个key在大量请求的时候正好失效

解决:
加锁,大量并发只让一个去查,其他等待,查询得到数据后加入到缓存。

热点缓存key重建优化

开发人员使用“缓存+过期时间”的策略既可以加速数据读写, 又保证数据的定期更新, 这种模式基本能够满足绝大部分需求。 但是有两个问题如果同时出现, 可能就会对应用造成致命的危害:

  • 当前key是一个热点key(例如一个热门的娱乐新闻),并发量非常大。
  • 重建缓存不能在短时间完成, 可能是一个复杂计算, 例如复杂的SQL、 多次IO、 多个依赖等。
    在缓存失效的瞬间, 有大量线程来重建缓存, 造成后端负载加大, 甚至可能会让应用崩溃。要解决这个问题主要就是要避免大量线程同时重建缓存。我们可以利用互斥锁来解决,此方法只允许一个线程重建缓存, 其他线程等待重建缓存的线程执行完, 重新从缓存获取数据即可。
    示例伪代码:

     String get(String key) {
     // 从Redis中获取数据
     String value = redis.get(key);
     // 如果value为空, 则开始重构缓存
     if (value == null) {
     // 只允许一个线程重建缓存, 使用nx, 并设置过期时间ex
     String mutexKey = "mutext:key:" + key;
     if (redis.set(mutexKey, "1", "ex 180", "nx")) {
     // 从数据源获取数据
     value = db.get(key);
     // 回写Redis, 并设置过期时间
     redis.setex(key, timeout, value);
     // 删除key_mutex
     redis.delete(mutexKey);
     }// 其他线程休息50毫秒后重试
     else {
     Thread.sleep(50);
     get(key);
     }
     }
     return value;
     }

缓存与数据库双写不一致

在大并发下,同时操作数据库与缓存会存在数据不一致性问题
1、双写不一致情况
kzxuvx9s.png
2、读写并发不一致
kzxuwl9m.png
解决方案:
1、对于并发几率很小的数据(如个人维度的订单数据、用户数据等),这种几乎不用考虑这个问题,很少会发生缓存不一致,可以给缓存数据加上过期时间,每隔一段时间触发读的主动更新即可。
2、就算并发很高,如果业务上能容忍短时间的缓存数据不一致(如商品名称,商品分类菜单等),缓存加上过期时间依然可以解决大部分业务对于缓存的要求。
3、如果不能容忍缓存数据不一致,可以通过加读写锁保证并发读写或写写的时候按顺序排好队,读读的时候相当于无锁。
4、也可以用阿里开源的canal通过监听数据库的binlog日志及时的去修改缓存,但是引入了新的中间件,增加了系统的复杂度。
kzxuydfu.png
总结:
以上我们针对的都是读多写少的情况加入缓存提高性能,如果写多读多的情况又不能容忍缓存数据不一致,那就没必要加缓存了,可以直接操作数据库。当然,如果数据库抗不住压力,还可以把缓存作为数据读写的主存储,异步将数据同步到数据库,数据库只是作为数据的备份。放入缓存的数据应该是对实时性、一致性要求不是很高的数据。切记不要为了用缓存,同时又要保证绝对的一致性做大量的过度设计和控制,增加系统复杂性!

0

评论 (0)

取消