@lru_cache是functools中基于LRU策略的函数缓存装饰器,适用于纯函数、可哈希参数、计算开销大且调用频繁的场景;支持maxsize控制容量、typed启用类型敏感缓存,并提供cache_info和cache_clear等管理接口。
@lru_cache 是 Python 标准库 functools 中最常用、最实用的函数缓存装饰器。它通过“最近最少使用”(LRU)策略自动缓存函数的返回值,避免重复计算,显著提升重复调用场景下的性能——尤其适合纯函数、参数可哈希、计算开销大的场景。
不是所有函数都适合加缓存。以下情况推荐启用:
maxsize 限制)直接在函数
上方添加 @lru_cache 即可启用默认缓存(maxsize=128):
示例:优化斐波那契递归
from functools import lru_cache@lru_cache() def fib(n): if n < 2: return n return fib(n-1) + fib(n-2)
print(fib(35)) # 原本可能卡顿,加缓存后毫秒级返回
常用参数说明:
@lru_cache(maxsize=128):最多缓存 128 组输入-输出对;设为 None 表示无上限(慎用)@lru_cache(maxsize=0):禁用 LRU 缓存,但会记录调用统计(cache_info() 仍可用)typed=True:开启类型敏感缓存(如 fib(1) 和 fib(1.0) 视为不同调用)缓存行为可观察、可调试:
fib.cache_info() 返回命名元组:CacheInfo(hits=..., misses=..., maxsize=..., currsize=...)
fib.cache_clear() 手动清空当前函数的所有缓存(适合数据更新后重置)hits 增加,说明缓存生效用错地方反而引发 bug 或内存泄漏:
maxsize=None 且输入组合极多 → 显式设置合理 maxsize,或定期 cache_clear()
self 导致每次调用 key 不同)→ 改用 @lru_cache 在静态方法或工具函数上,或使用 methodtools.lru_cache 等扩展