批量插入应使用多值insert语法,单次执行千行级数据,性能提升10倍以上;每批1000–5000行为宜,需显式指定列名、预检空值与类型;大批量更新优先join临时表,删除大量数据须分批加limit。

批量插入用 INSERT ... VALUES 多值语法,别用循环单条插入
单条 INSERT INTO t (a,b) VALUES (1,2) 执行 1000 次,和一条 INSERT INTO t (a,b) VALUES (1,2),(3,4),(5,6),...,(1999,2000) 执行 1 次,性能差距可达 10 倍以上。MySQL 解析、权限校验、日志写入等开销被大幅摊薄。
实操建议:
- 每批控制在 1000–5000 行之间;超过 1 万行可能触发
max_allowed_packet限制或锁表时间过长 - 显式指定列名,避免因表结构变更导致批量失败
- 若数据来自应用层,拼接前做空值/类型预检,否则某一行出错会导致整批回滚
大批量更新优先用 JOIN + 临时表,慎用 WHERE IN (子查询)
UPDATE t1 SET status=1 WHERE id IN (SELECT id FROM t2 WHERE flag=1) 在 MySQL 5.7 及以前极易触发全表扫描或临时表膨胀,执行缓慢且容易锁表。
更稳的替代方案:
- 先将目标 ID 写入临时表:
CREATE TEMPORARY TABLE tmp_ids AS SELECT id FROM t2 WHERE flag=1 - 再用 JOIN 更新:
UPDATE t1 JOIN tmp_ids ON t1.id = tmp_ids.id SET t1.status = 1 - 确保
t1.id和tmp_ids.id都有索引,否则 JOIN 会变慢
删除大量数据时分批 + LIMIT,避免长事务和 binlog 爆满
直接 DELETE FROM logs WHERE created_at 可能锁表几十秒,同时生成巨量 binlog,主从延迟飙升,甚至填满磁盘。
安全做法是切片删除:
- 用主键或自增 ID 分段,例如:
DELETE FROM logs WHERE id BETWEEN 100000 AND 199999 AND created_at - 每次删完加
SLEEP(0.1)(应用层控制),降低 I/O 压力 - 配合
SELECT MIN(id), MAX(id) FROM logs WHERE created_at 动态确定范围,避免漏删
LOAD DATA INFILE 是最快导入方式,但要注意权限与路径限制
比任何 INSERT 都快 5–20 倍,本质是服务端直接读文件解析,绕过网络和协议解析开销。
常见卡点:
-
LOAD DATA INFILE默认只允许读取 MySQL 服务所在机器的文件,LOCAL INFILE需客户端和服务端都开启(local_infile=ON),且部分云数据库禁用 - 字段分隔符、换行符必须严格匹配,否则整行跳过不报错,静默丢数据
- 中文乱码大概率是文件编码非
utf8mb4,建表时用CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci,导入时加CHARACTER SET utf8mb4











