Bootstrap
进程内缓存助你提高并发能力!

缓存,设计的初衷是为了减少繁重的IO操作,增加系统并发能力。不管是 CPU多级缓存,page cache,还是我们业务中熟悉的 redis 缓存,本质都是将有限的热点数据存储在一个存取更快的存储介质中。

10 张图打开 CPU 缓存一致性的大门

随着时间的推移,CPU 和内存的访问性能相差越来越大,于是就在 CPU 内部嵌入了 CPU Cache(高速缓存),CPU Cache 离 CPU 核心相当近,因此它的访问速度是很快的,于是它充当了 CPU 与内存之间的缓存角色。

乙己说:LRU实现思路整理

LeetCode题目 :146.LRU缓存的实现(https://leetcode-cn.com/problems/lru-cache/)

乙己说:LFU实现思路整理

LeetCode题目 :460.LFU缓存的实现[https://leetcode-cn.com/problems/lfu-cache/]

Cookie常见面试题

Cookie常见面试题

从 0 到 1 搭建技术中台之推送平台实践:高吞吐、低延迟、多业务隔离的设计与实现

APP推送是触达用户的一个非常重要的手段,对于提高产品活跃度、提高功能使用体验、提升用户粘性、提升用户留存率都会起到重要作用。本文就伴鱼推送平台实践中遇到问题的思考以及相应的技术方案进行详细说明,以期给读者带来一些思考以及解决类似问题的思路。

12 张图 | 深入理解 Eureka三层缓存架构

上一讲我们讲到了 Eureka 注册中心的 Server 端有三级缓存来保存注册信息,可以利用缓存的快速读取来提高系统性能。本篇我们再来深入探讨下 Eureka 的三层缓存架构的设计原理。

分布式数据缓存中的一致性哈希算法

一致性哈希算法在分布式缓存领域的 MemCache,负载均衡领域的 Nginx 以及各类 RPC 框架中都有广泛的应用,它主要是为了解决传统哈希函数添加哈希表槽位数后要将关键字重新映射的问题。

缓存数据的淘汰之路(下)

数据在经过上次LRU大师兄的专业解读, 很清晰的明白了LRU(最近最少淘汰算法)的底层,需要有顺序和查询插入数据去支持做出操作,而且要比较高效的进行数据的筛选,虽然大师兄LRU的武功很强, 数据心里也是强忍着一口气,非得让老头把看家的底层本领教教他,这

缓存数据的淘汰之路(中)

数据又回来了,想起昨天被过期经理上了一课,虽然心里很是难过,但是毕竟知道人外有人,原来为了控制我们数据,制定了这么野性的过期键策略,听说后面的关更难了,但是还是要闯关一下了,不是还有那句话嘛,关关难过关关过

对 HTTP 缓存的全面总结

我们使用 HTTP 缓存,通过复用缓存资源,减少了客户端等待时间和网络流量,同时也能缓解服务器端的压力。可以显著的提升我们网站和应用的性能。

【得物技术】浅谈本地缓存与分布式缓存

在互联网电商行业,由于订单履约物流等核心业务的特殊性,要求在保证业务正确性的基础上,这些链路的响应时间不能过高,否则会影响上下游的的其他业务。

读懂才会用 : 瞅瞅Redis的epoll模型

上一篇提到了Redis采用epoll模型来提升链接处理能力。本文,我们从源代码的角度,简单理解Redis是如何使用epoll以及epoll的实现原理。浅入浅出~

缓存和数据库一致性问题,看这篇就够了

想要保证缓存和数据库一致性,怎么这么难?

高并发下为什么更喜欢进程内缓存

进程内缓存是指缓存和应用程序在相同地址空间。即同一个进程内。分布式缓存是指缓存和应用程序位于不同进程的缓存,通常部署在不同服务器上。

如何节省数据库写操作资源(6)【写缓存】

如何通过写缓存,减少数据库写操作,兼容抢购业务的快速开展,这篇文章告诉你!!!

缓存与存储的一致性策略:从 CPU 到分布式系统

在追求极致性能的系统中,缓存总是一个非常关键的手段,本文从单核CPU的缓存策略开始讨论,然后再讨论多核CPU的缓存策略,最后分析了分布式系统中各种缓存策略以及相关的优化与衡权。

Redis不仅仅是缓存,还是……

在解决访问数据库的性能问题,通常的解决方案是缓存。随着事情的发展,现在我们有来高可用的分布式内存缓存,可以被不同的实例同时使用。

案例解读:深入理解浏览器的缓存机制

摘要:缓存可以减少网络 IO 消耗,提高访问速度。浏览器缓存是一种操作简单、效果显著的前端性能优化手段。

云图说 | 分布式缓存服务DCS—站在开源Redis前辈的肩膀上,扬帆起航

摘要:DCS基于开源Redis、Memcached向用户提供一定程度定制化的缓存服务,因此,除了拥有开源服务缓存数据库的优秀特性,DCS还提供更多实用功能。

6000 字 |Redis 分布式锁|从青铜到钻石的演进方案

本地加锁的方式在分布式的场景下就不适用了,所以本文我们来探讨下如何引入分布式锁解决本地锁的问题。总共有 5 种方案,层层递进来设计分布式锁。

DCache 分布式存储系统|Set, ZSet 缓存模块的创建与使用

在之前的系列文章中,我们介绍了 DCache 及其 KV, K-K-Row 和 List 缓存模块的使用,本文将继续介绍如何使用 DCache 中的集合类型缓存模块 —— Set 和 ZSet 缓存模块

【高并发】面试官:讲讲什么是缓存穿透?击穿?雪崩?如何解决?

面试官说我回答的漂亮,让我下周入职!!

Java设计模式如何优雅的使用本地缓存?

1、缓存Cache和ConcurrentMap虽然类似,但又不完全一样。最根本的区别是,ConcurrentMap会保存所有添加到其中的元素直到它们被明确的移除。而Cache通常可以配置一个自动化的回收策略去限制它的内存空间。

自定义aop实现Cacheable注解(零拷贝), CacheItemGet,CacheMapGet,CacheMapPut

众所周知, 在SpringBoot中有一个管理Redis缓存的注解Cacheable, 可以很方便的获取缓存

高并发场景下的会话服务数据读写设计思路(附具体实施方案)

高并发场景下,IM 如何保证低时延服务?

分布式数据缓存中的一致性哈希算法

一致性哈希算法在分布式缓存领域的 MemCache,负载均衡领域的 Nginx 以及各类 RPC 框架中都有广泛的应用,它主要是为了解决传统哈希函数添加哈希表槽位数后要将关键字重新映射的问题。

缓存数据的淘汰之路(下)

数据在经过上次LRU大师兄的专业解读, 很清晰的明白了LRU(最近最少淘汰算法)的底层,需要有顺序和查询插入数据去支持做出操作,而且要比较高效的进行数据的筛选,虽然大师兄LRU的武功很强, 数据心里也是强忍着一口气,非得让老头把看家的底层本领教教他,这

缓存数据的淘汰之路(中)

数据又回来了,想起昨天被过期经理上了一课,虽然心里很是难过,但是毕竟知道人外有人,原来为了控制我们数据,制定了这么野性的过期键策略,听说后面的关更难了,但是还是要闯关一下了,不是还有那句话嘛,关关难过关关过

Redis 6.0 新特性篇:客户端缓存全面揭秘

访问本地内存的的性能必然比通过网络访问 Redis 快,所以这种模式可以极大地减少获取数据的延迟,并且可以减少 Redis 的负载,提高性能。

面试官:面对千万级、亿级流量怎么处理?

这个《我想进大厂》系列的最后一篇,终结篇。可能有点标题党了,但是我想要表达的意思和目的是一致的。

统一缓存帝国 - 实战 Spring Cache

前三篇讲解的缓存使用和分布式锁的都是基于 Redis 来做缓存的,本篇我来向大家介绍一种兼容所有缓存中间件的方案,不论我们是使用 Redis 还是 Ehcache,都不需要关心如何操作 Redis 或者 Ehcache,这套方案统统帮你搞定。

SpringBoot 缓存之 @Cacheable 详细介绍

SpringBoot 缓存使用介绍,如何使用@cacheable 注解来进行缓存

其他标签