使用 Redis 和 Spring Cache 实现基于注解的缓存功能

Spring Cache 提供了一种简单的方法来通过注解对方法的返回结果进行缓存。结合 Redis,可以构建一个高效的分布式缓存解决方案。
以下是详细实现步骤:

1. 引入必要的依赖
pom.xml 文件中添加以下依赖(适用于 Spring Boot 项目):

<dependencies>
    <!-- Spring Boot Starter for Cache -->
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-cache</artifactId>
    </dependency>
    
    <!-- Spring Boot Starter for Redis -->
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-data-redis</artifactId>
    </dependency>
    
    <!-- Optional: Redis client for Lettuce -->
    <dependency>
        <groupId>io.lettuce.core</groupId>
        <artifactId>lettuce-core</artifactId>
    </dependency>
</dependencies>

2. 配置 Redis
application.ymlapplication.properties 文件中配置 Redis 连接信息:

spring:
  cache:
    type: redis
  redis:
    host: localhost
    port: 6379
    # Optional: Redis password
    # password: yourpassword

3. 启用缓存功能
在主启动类上添加 @EnableCaching 注解:

import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import org.springframework.cache.annotation.EnableCaching;

@SpringBootApplication
@EnableCaching
public class CacheApplication {
    public static void main(String[] args) {
        SpringApplication.run(CacheApplication.class, args);
    }
}

4. 实现缓存功能
1. 使用缓存注解
在需要缓存的方法上使用 Spring 提供的注解:
@Cacheable: 在调用方法时检查缓存,如果有缓存则返回缓存数据;如果没有,则执行方法并将结果存入缓存。
@CachePut: 不管是否存在缓存,每次都会执行方法,并将结果更新到缓存。
@CacheEvict: 用于移除缓存。
@Caching: 组合多个缓存操作。
示例代码:

import org.springframework.cache.annotation.Cacheable;
import org.springframework.cache.annotation.CacheEvict;
import org.springframework.cache.annotation.CachePut;
import org.springframework.stereotype.Service;

@Service
public class UserService {

    // 查询用户信息,结果将存入缓存
    @Cacheable(value = "users", key = "#id")
    public String getUserById(Long id) {
        System.out.println("Fetching user from database...");
        return "User" + id; // 模拟从数据库获取用户
    }

    // 更新用户信息,并同步更新缓存
    @CachePut(value = "users", key = "#id")
    public String updateUser(Long id, String name) {
        System.out.println("Updating user in database...");
        return name; // 模拟更新后的用户数据
    }

    // 删除用户信息,同时清除缓存
    @CacheEvict(value = "users", key = "#id")
    public void deleteUser(Long id) {
        System.out.println("Deleting user from database...");
    }
}

2. 复杂缓存逻辑
如果需要组合操作,可以使用 @Caching 注解:

import org.springframework.cache.annotation.Caching;

@Caching(
    put = { @CachePut(value = "users", key = "#user.id") },
    evict = { @CacheEvict(value = "users", key = "'allUsers'") }
)
public User saveUser(User user) {
    // Save user to database
    return user;
}

5. 配置缓存序列化
为了提高 Redis 存储的效率,可以使用 JSON 或其他格式进行序列化。以下是示例配置:
1. 创建 Redis 配置类

import org.springframework.cache.annotation.EnableCaching;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.connection.RedisConnectionFactory;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.serializer.GenericJackson2JsonRedisSerializer;
import org.springframework.data.redis.serializer.StringRedisSerializer;

@Configuration
public class RedisConfig {

    @Bean
    public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory redisConnectionFactory) {
        RedisTemplate<String, Object> template = new RedisTemplate<>();
        template.setConnectionFactory(redisConnectionFactory);
        
        // 设置 key 序列化器
        template.setKeySerializer(new StringRedisSerializer());
        // 设置 value 序列化器
        template.setValueSerializer(new GenericJackson2JsonRedisSerializer());
        template.setHashKeySerializer(new StringRedisSerializer());
        template.setHashValueSerializer(new GenericJackson2JsonRedisSerializer());
        
        template.afterPropertiesSet();
        return template;
    }
}

2. 验证序列化
使用上述配置后,Redis 存储的数据将以 JSON 格式显示,更加直观且易于调试。

6. 运行和测试
示例调用:

UserService userService = new UserService();

// 第一次调用会执行方法
System.out.println(userService.getUserById(1L));

// 第二次调用会从缓存中获取
System.out.println(userService.getUserById(1L));

// 更新用户并更新缓存
userService.updateUser(1L, "NewName");

// 删除用户并清除缓存
userService.deleteUser(1L);

运行后,可以观察到数据库查询方法不会重复执行,数据从缓存中获取,同时缓存的更新和删除操作都能正常运行。

总结
通过 Spring Cache 和 Redis,可以快速实现基于注解的缓存功能,适用于大多数简单缓存场景。如果你有更复杂的需求,可以在 Spring Cache 的基础上自定义实现策略或扩展功能!

发布者:myrgd,转载请注明出处:https://www.object-c.cn/4989

Like (0)
Previous 2024年12月1日 下午1:00
Next 2024年12月1日 下午1:40

相关推荐

  • 若依集成 X-File-Storage 框架(实现图片上传阿里云 OSS 服务器)

    若依(Ruoyi)是一款基于 Spring Boot 的企业级开发框架,在此框架中集成 X-File-Storage 框架来实现图片上传到阿里云 OSS(对象存储服务)是一个常见的需求。通过这个集成,你可以便捷地将图片或文件上传到阿里云 OSS,并在系统中管理和访问这些文件。以下是详细的步骤说明: 1. 安装 X-File-Storage 框架 X-File…

    2024年11月25日
    12500
  • Oracle中RegExp_Like 正则表达式函数的基本用法

    在 Oracle 数据库中,REGEXP_LIKE 是一个用于匹配正则表达式的函数。它通常用于检查一个字符串是否符合某个正则表达式的模式。它是 Oracle 正则表达式功能的一部分,允许你在 SQL 查询中使用正则表达式进行数据验证或过滤。 语法 示例 1. 基本使用 检查字符串是否符合给定的正则表达式模式。 此查询将查找 column_name 中仅包含字…

    2024年11月23日
    7200
  • Android 解决 “Module was compiled with an incompatible version of Kotlin“

    “Module was compiled with an incompatible version of Kotlin” 错误通常出现在 Android 开发中,因为模块的 Kotlin 编译器版本与项目中的 Kotlin 编译器版本不匹配。以下是解决此问题的方法: 1. 检查 Kotlin 插件版本步骤:打开 Android Studio。点击顶部菜单的 …

    2024年11月26日
    19300
  • Redis中如何使用lua脚本redis与lua的相互调用方法

    在 Redis 中,Lua 脚本 提供了一种强大的方式来执行原子操作,可以在 Redis 服务器上直接执行 Lua 代码,从而避免了多次网络往返和保证操作的原子性。Redis 内置了对 Lua 脚本的支持,通过 EVAL 命令来执行脚本,EVALSHA 则用于执行已经加载到 Redis 服务器的脚本。1. Redis 与 Lua 脚本的基本交互1.1 基本的…

    2024年11月28日
    2500
  • Unity 项目升级URP/HDRP渲染管线时如何解决材质丢失问题

    在 Unity 项目中升级到 URP(通用渲染管线) 或 HDRP(高清渲染管线) 后,材质丢失是一个常见问题。这通常是因为原来的材质或着色器不兼容新渲染管线,需要手动调整或重新配置。以下是详细的解决方法: 1. 理解渲染管线的变化 2. 自动转换材质(官方工具) Unity 提供了从 Built-in 渲染管线迁移到 URP 或 HDRP 的官方工具,可以…

    2024年11月25日
    18400
  • synchronized 和自适应锁

    Java 中的 synchronized 是一种常用的线程同步机制,它通过内置的锁(监视器锁,Monitor Lock)来保护代码块或方法的并发安全。从 JDK 1.6 开始,synchronized 进行了许多优化,其中一个重要的机制是自适应锁(Adaptive Spinning)。 1. 什么是自适应锁? 自适应锁是一种优化锁竞争和线程上下文切换性能的技…

    2024年11月21日
    6300
  • 在 CANoe 的 Test Module 中进行压力测试和鲁棒性测试

    在 CANoe 的 Test Module 中进行压力测试和鲁棒性测试,可以通过以下步骤快速构建并执行相关测试: 1. 定义测试目标 首先明确测试的具体内容,例如: 具体的目标可以包括: 2. 配置 CANoe 环境 确保 CANoe 配置已准备好,包含: 3. 创建压力测试脚本 在 Test Module 中使用 CAPL 或 Test Case Edit…

    2024年12月5日
    3400
  • wordpress 蜘蛛记录插件的功能记录网站的所有访问记录

    要在 WordPress 网站上实现类似的功能,通常你需要开发一个 WordPress 插件。以下是一步步创建一个插件的指南,它可以记录访问者的访问记录,区分搜索引擎蜘蛛,并保存访客的 IP 地址。 1. 创建插件目录和文件 2. 插件文件结构 插件的文件结构大概如下: 3. 编写插件代码 在 visitor-tracker.php 文件中,添加以下代码: …

    2024年11月22日
    4300
  • Python中处理JSON文件的最新教程

    在 Python 中处理 JSON 文件是非常常见的操作。JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,易于人类阅读和编写,也容易机器解析和生成。Python 提供了强大的 json 模块来方便地处理 JSON 数据。 基本操作:读取、写入和解析 JSON 文件 以下是一个关于如何使用 Python 中的 jso…

    2024年11月24日
    4300
  • Docker 部署 Navidrome 服务器与远程访问听歌的教程

    Navidrome 是一个轻量级、功能强大的音乐流媒体服务器,可以通过 Docker 容器方便地部署。本教程涵盖从本地部署到远程访问的详细步骤。 一、环境准备 1. 安装 Docker 和 Docker Compose 在服务器(或本地机器)上安装 Docker 和 Docker Compose。 安装 Docker Ubuntu 示例: CentOS 示例…

    2024年11月22日
    8400
  • Web实时通信和 @microsoft/signalr 微软开发的一款基于 SignalR 的实时通信库

    Web实时通信和 @microsoft/signalr@microsoft/signalr 是微软开发的一款基于 SignalR 的实时通信库,专为 Web 应用提供强大的实时通信功能。SignalR 的主要特点包括支持双向通信、自动选择传输协议(WebSockets、Server-Sent Events 或 Long Polling)以及简化的服务器与客户…

    2024年12月1日
    6800
  • 开源工具 Flowise 构建可视化的 AI 工作流

    Flowise 是一个开源的工具,用于构建可视化的 AI 工作流和对话代理。通过 Flowise,用户可以快速集成各种大语言模型(LLM)并与数据库交互。以下是详细的本地部署教程: 1. 前置条件 1.1 硬件和系统要求 1.2 软件要求 2. 本地部署步骤 2.1 克隆 Flowise 代码库 2.2 安装依赖 2.3 配置环境变量 2.4 启动服务 运行…

    2024年11月24日
    24700
  • 实现 Qwen2.5-7B-Instruct 模型在本地部署并结合 vLLM 推理加速和 Gradio 搭建前端界面

    要实现 Qwen2.5-7B-Instruct 模型在本地部署并结合 vLLM 推理加速和 Gradio 搭建前端界面,以下是详细步骤: 1. 环境准备 2. 模型加载与配置 通过 Hugging Face Transformers 加载 Qwen2.5-7B-Instruct 模型: 3. 推理加速 4. 前端界面部署 通过 Gradio 创建简洁的用户界…

    2024年11月26日
    14200
  • 在 Neo4j 中存储 Liquidity Structure(的层次和关联结构)

    在 Neo4j 中存储 Liquidity Structure(流动性结构)的层次和关联结构时,可以使用其图数据库的特性:节点(Node)表示实体,关系(Relationship)表示这些实体之间的连接。流动性结构通常涉及多层次的实体(如母公司、子公司、账户、资金池等)及其关联关系。 以下是具体实现步骤: 1. 设计数据模型节点类型:实体层次(Hierarc…

    2024年12月2日
    2700
  • 在 Apache Spark 中,任务的切分(Task Division)机制

    在 Apache Spark 中,任务的切分(Task Division)是 Spark 将应用程序逻辑划分为多个并行任务的核心机制。任务切分的主要原则是基于数据分区和操作算子。以下是任务切分的核心原则和关键影响因素: 1. Spark 任务切分的基本概念 2. 任务切分的原则 2.1 基于分区(Partition)的切分 2.2 基于依赖关系(Depend…

    2024年11月25日
    5800

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

在线咨询: QQ交谈

邮件:723923060@qq.com

关注微信