Dapper 本身不支持批量插入,但可通过 SqlBulkCopy(SQL Server 高性能首选)、Dapper.Contrib/FastCrud 扩展(中小批量跨库兼容)或 MiniBatch 手动分组多值 INSERT(非 SQL Server 场景)三种方式实现,需注意映射、事务、主键及 SQL 限制。

Dapper 本身不内置批量插入(Bulk Insert)功能,但可以通过几种高效方式实现类似 SQL Server 的 SqlBulkCopy 效果,兼顾性能与简洁性。核心思路是:**绕过 Dapper 的单条/多条参数化执行,改用底层 ADO.NET 的批量机制,再与 Dapper 的模型映射能力结合。**
用 SqlBulkCopy 手动实现高性能批量插入
这是 .NET 中 SQL Server 场景下最快的方式,适合万级及以上数据。关键在于把对象列表转成 DataTable 或 IDataReader,再交由 SqlBulkCopy 处理。
- 先用
ObjectReader.Create(entities)(来自FastMember库)快速生成IDataReader,避免手写 DataTable 映射 - 确保数据库表字段名与实体属性名(或通过
[Column]特性)严格对应 - 设置
SqlBulkCopy.BatchSize(如 10000)、DestinationTableName和ColumnMappings(如有命名差异) - 保持连接打开,
SqlBulkCopy.WriteToServer()必须在同一个连接上执行
借助 Dapper.Contrib 或 Dapper.FastCrud 扩展
这些轻量扩展在 Dapper 基础上补充了批量操作 API,语法更贴近 Dapper 风格,适合中小批量(几百到几千条)且不想引入额外依赖的场景。
-
Dapper.Contrib提供connection.InsertAll(list),本质仍是循环 + 参数化 INSERT,性能不如 SqlBulkCopy,但兼容所有数据库 -
Dapper.FastCrud支持connection.InsertAsync(entities)并自动批处理,对 PostgreSQL/MySQL/SQL Server 均有优化 - 注意:它们不替代 SqlBulkCopy,高吞吐仍需后者;仅当跨数据库或数据量不大时优先考虑
用 MiniBatch 模拟批量(纯 Dapper + 分组执行)
如果不能用 SqlBulkCopy(如非 SQL Server),又想比逐条快,可手动分组 + 单次多值 INSERT(适用于支持 INSERT INTO ... VALUES (),(),() 的数据库,如 SQL Server 2008+、PostgreSQL、MySQL)。
- 将实体列表按 1000 条一组切分
- 每组拼一条含多个 VALUE 子句的 INSERT 语句,用 Dapper 执行(注意参数名去重和长度限制)
- 推荐用
StringBuilder拼 SQL,或借助SqlMapper.GenerateInClause思路扩展 - 缺点:SQL 长度受限、参数数量上限(SQL Server 默认 2100)、不支持复杂类型
注意事项与避坑点
无论选哪种方式,以下细节直接影响成败:
- 实体属性必须是 public get/set,否则
ObjectReader或映射失败 - 主键自增列不要传值(除非显式开启
IDENTITY_INSERT),避免冲突 - 事务需显式控制:
SqlBulkCopy不参与当前TransactionScope,要用SqlTransaction传入 - 批量前建议
TRUNCATE或清空临时表,避免重复插入;或用MERGE替代纯 INSERT 实现 upsert
基本上就这些。Dapper 的“批量插入”不是开箱即用的功能,但结合生态工具和 ADO.NET 底层能力,完全能做到既高效又可控。选型看数据量、数据库类型和维护成本——大数用 SqlBulkCopy,小而全用扩展库,中间态可手写 MiniBatch。










