KEY更适合高并发写入,因其自动处理NULL、支持多列且避免ABS()符号位竞争;子分区数宜设为4–8个2的幂,总分区数不超64,字段需高基数且分布均匀。

子分区用 KEY 还是 HASH 更适合高并发写入
KEY 分区和 HASH 分区在子分区场景下表现接近,但 KEY 更稳妥。MySQL 对 KEY 子分区会自动对列值做内部哈希并取模,支持多列且隐式处理 NULL;而 HASH 仅支持单表达式,且表达式结果为 NULL 时直接路由到分区 0,容易造成热点——尤其在用户 ID 字段存在批量 NULL 或默认值时。
实操建议:
- 优先选
PARTITION BY KEY (user_id),即使user_id是 BIGINT 或带符号整型,MySQL 内部也会安全转换 - 避免用
PARTITION BY HASH (ABS(user_id)),ABS()在高并发下可能引发符号位竞争(尤其旧版本),且无法利用索引下推 - 子分区数建议设为 2 的幂(如 4、8、16),方便底层取模运算,也利于后续在线扩容(配合
ALTER TABLE ... REORGANIZE PARTITION)
子分区数量过多反而加剧锁争用
看似分区越多越“分散”,但 MySQL 5.7+ 中每个分区对应独立的 .ibd 文件和内存元数据结构,事务开启时需获取所有相关分区的 MDL(metadata lock);若单条 INSERT 触发跨多个子分区(比如按时间 + 用户双级分区),且子分区数超过 16,MDL 等待时间明显上升,show processlist 常见 Waiting for table metadata lock。
实操建议:
- 一级分区(如按月)控制在 6–12 个,子分区(KEY/HASH)控制在 4–8 个,总分区数不超过 64
- 用
SELECT COUNT(*) FROM information_schema.PARTITIONS WHERE TABLE_NAME = 't_log'定期核对实际分区数,防止误操作导致爆炸式增长 - 写入前用
EXPLAIN PARTITIONS INSERT ...(MySQL 8.0.23+ 支持)验证是否真落到预期子分区,避免因隐式类型转换导致全分区扫描
子分区字段选错会导致写入倾斜
常见错误是拿业务无关或低基数字段做 KEY/HASH 子分区依据,例如用 status TINYINT 或 region CHAR(2)。这类字段取值少(如 status 只有 0/1/2),子分区数再多也只激活其中几个,其余分区长期空载,监控看到磁盘 IO 和 buffer pool 命中率严重不均。
iWebShop基于iWebSI框架开发,在获得iWebSI技术平台库支持的条件下,iWebShop可以轻松满足用户量级百万至千万级的大型电子商务网站的性能要求。站点的集群与分布式技术(分布式计算与存储/高可用性/负载均衡)被屏蔽在SI 平台之内,基于iWebShop并且按照SI平台库扩展规范开发的新增功能模块,也将同时获得这种超级计算与处理的能力。作为开源的LAMP电子商务系统,iWebShop
实操建议:
- 子分区字段必须满足:高基数(distinct 值 > 分区数 × 10)、写入分布均匀、非空且稳定(不频繁 UPDATE)
- 上线前跑抽样分析:
SELECT user_id % 8 AS p, COUNT(*) FROM t_log WHERE create_time > NOW() - INTERVAL 1 DAY GROUP BY p ORDER BY COUNT(*) DESC,观察各余数桶是否偏离均值 ±20% - 如果业务主键是 UUID,别直接
PARTITION BY KEY (id)——UUID 前半段时间戳集中,后半段随机性才好,建议先用UNHEX(REVERSE(HEX(id)))打散(MySQL 8.0+ 支持函数索引,可建虚拟列加速)
高并发下子分区无法替代写缓冲机制
分区只是数据物理分布策略,不改变单条 SQL 的执行路径。当大量小事务(如每秒数千条单行 INSERT)涌入,瓶颈常在 redo log 刷盘、binlog group commit 或 innodb_buffer_pool_mutex 争用,此时加子分区反而增加事务路径长度(需遍历更多分区字典),TPS 不升反降。
实操建议:
- 确认真实瓶颈:用
perf top -p $(pgrep mysqld)看是否卡在log_write_up_to或buf_pool_mutex_enter,而非partition_iterate - 优先调优:增大
innodb_log_file_size、启用binlog_group_commit_sync_delay、用INSERT ... VALUES (),(),()批量写入 - 子分区仅作为二级优化手段,在批量写入已稳定在 5000+ QPS 且仍出现单分区 IO 饱和时再考虑引入
真正难的是让分区键和业务写入节奏同频——比如订单表按天一级分区 + 按商户 ID 子分区,但大促时头部商户流量占 80%,再好的子分区设计也扛不住,这时候得结合应用层分库或临时限流。









