page cache 占用高是正常现象,因内核主动利用空闲内存缓存文件数据以提升I/O性能;真正需关注的是available持续接近0、SwapUsed增长或频繁OOM等内存压力信号。

缓存占用高在 Linux 中非常正常,尤其是 page cache 占用偏高,基本不是问题,而是系统在高效工作。
为什么 page cache 占用高是正常的
Linux 内核会自动把刚读过或写过的文件数据缓存在内存中(以 4KB 页面为单位),目的是下次访问时直接从内存拿,避免慢速磁盘 I/O。只要物理内存还有余量,内核就倾向于多缓存、少释放——这不是泄漏,是主动利用空闲内存提升性能。
- 所有常规文件读写(
read()/write(),不带O_DIRECT)都会经过 page cache - 即使进程结束了,缓存也不会立刻清空,而是留着供后续可能的重复访问
-
free命令里显示的buff/cache高,不代表可用内存少;真正关键的是available字段
page cache 的核心工作原理
它本质是内核在内存中维护的一套“文件页映射表”,每个打开的文件通过其 inode 关联一个 address_space,再挂载一棵 radix 树(基数树),树的叶子节点指向实际缓存数据的物理页帧(struct page)。
- 读文件时:先查 radix 树 → 命中则拷贝页内数据给用户态;未命中则从磁盘加载并插入树中
- 写文件时:默认“写回模式”(writeback),只改内存页,标记为 dirty;由内核后台线程(
writeback)择机刷盘 - 支持预读(readahead):检测顺序读行为,提前把后续几页载入 cache,减少阻塞
- 淘汰策略基于 LRU 近似算法,结合活跃/非活跃链表管理,压力大时自动回收
什么时候才需要关注缓存占用
真正该警惕的不是缓存高,而是 内存压力持续升高,表现为:
-
available长期接近 0,且SwapUsed持续增长 - 频繁触发
OOM Killer或进程被杀 -
/proc/vmstat中pgmajfault(主缺页)或pgpgin/pgpgout显著上升
此时说明物理内存真的不够用了,内核正在拼命回收 page cache 和 slab,甚至开始换出匿名页——这才是需排查应用或调参的信号。
不建议随意手动清理缓存
执行 echo 3 > /proc/sys/vm/drop_caches 确实能清掉 page cache,但代价明显:
- 触发大量同步刷盘(尤其 dirty page 多时),IO 瞬间飙升,服务卡顿
- 清完马上又会涨回来,因为读写仍在继续
- 掩盖真实问题(比如某程序反复读大文件却不复用,或内存配置不合理)
除非调试或压测场景,否则无需干预。Linux 的缓存管理足够智能,让它自己工作就好。










