核心思路是“冷热分离+定期归档+安全清理”,通过业务逻辑识别历史数据、分批导出删除、校验回滚机制及后续维护保障归档安全高效。

历史表数据量过大,核心思路是“冷热分离+定期归档+安全清理”,不是简单删数据,而是让活跃查询变快、存储成本降低、备份恢复更稳。
识别哪些数据算“历史”
不能只看时间,得结合业务逻辑判断。比如订单表里,已完结且超过180天的订单、无售后动作的交易记录,通常可归档;日志表中7天前的调试日志、成功调用记录,多数场景下已无实时查询需求。
- 查SQL执行计划,确认高频WHERE条件(如
status = 'closed'、create_time )——这些就是天然的归档边界 - 统计各状态/时间段的数据分布:用
COUNT(*) GROUP BY DATE(create_time)或GROUP BY status快速定位“沉睡数据”比例 - 和业务方对齐保留策略:财务类需留5年,运营分析可能只需1年,法务要求不可删的字段要单独标记
分步归档:先搬走,再清理
归档不是直接DELETE,而是把数据导出到低成本存储,再从原表移除,避免长事务锁表和主从延迟激增。
- 用
INSERT INTO archive_db.order_archive SELECT * FROM main_db.orders WHERE ... LIMIT 10000分批导出,每次控制在1万行内,加WHERE条件确保精准范围 - 导出后立刻在原表执行
DELETE FROM orders WHERE ... LIMIT 10000,同样分批,配合SLEEP(0.1)(MySQL)或应用层延时,减少IO冲击 - 归档库建议用列存引擎(如ClickHouse)或压缩率高的格式(Parquet + S3),比原表节省60%~90%空间
自动化清理机制要带“刹车”
脚本跑崩了容易误删,必须加校验、留回滚、设熔断。
- 每次清理前先
SELECT COUNT(*)并写入日志,清理后对比源表与归档表行数,偏差超0.1%自动中止 - 删除语句必须包含明确的
WHERE且禁止全表删,上线前用EXPLAIN确认走了索引,避免慢删锁表 - 设置保留底线:比如“至少保留最近2年的数据”,脚本里硬编码
AND create_time > '2022-01-01'作为最后防线
后续维护别忘这三件事
归档不是一劳永逸,后续要持续盯住数据健康度。
- 给归档表加只读权限,防止误操作;原表对应字段加上
COMMENT 'archived after 2024-06'便于追溯 - 每月检查一次归档任务日志,关注失败重试次数、单次耗时是否突增(可能是索引失效或数据倾斜)
- 把常用历史查询迁到归档库,原表只服务实时业务,必要时建物化视图或定时同步汇总宽表供BI使用
不复杂但容易忽略:归档清理的关键不在技术多高深,而在定义清楚“谁要查什么”“什么时候不用查了”“删错了怎么找回来”。定好规则,自动化才真正可靠。










