正确方式是逐行或分块读取,避免内存溢出。使用fgetcsv逐行处理可控制内存,适合大文件;结合批量插入提升效率。laravel-excel包支持流式读取,通过chunkSize分批处理,自动优化内存。需关闭查询日志、设长执行时间、用队列异步处理,确保稳定性。

处理大型CSV文件时,直接加载整个文件到内存会导致内存溢出或脚本超时。Laravel中导入和解析大型CSV文件的正确方式是逐行读取,避免一次性加载全部内容。以下是实用且高效的方法。
使用PHP原生函数fgetcsv逐行处理
这是最稳定、资源占用最低的方式。通过打开文件句柄,逐行读取并处理每一行数据,能有效控制内存使用。
示例代码:
$filePath = storage_path('app/large-file.csv');
$handle = fopen($filePath, 'r');
if (!$handle) {
throw new \Exception('无法打开文件');
}
// 读取表头(可选)
$header = fgetcsv($handle);
while (($row = fgetcsv($handle)) !== false) {
// 处理每一行数据
$data = array_combine($header, $row); // 用表头作为键名
// 存入数据库(建议使用批量插入或延迟写入)
\DB::table('your_table')->insert([
'name' => $data['name'],
'email' => $data['email'],
'created_at' => now(),
'updated_at' => now(),
]);
}
fclose($handle);
优点: 内存友好,适合GB级文件;注意: 单条插入较慢,建议积攒一定数量后批量插入。
使用laravel-excel包处理大文件
maatwebsite/excel 是 Laravel 社区广泛使用的扩展包,支持流式读取,特别适合大文件解析。
安装:composer require maatwebsite/excel
php artisan make:import LargeCsvImport --model=User实现流式读取:
class LargeCsvImport implements ToCollection, WithChunkReading
{
public function collection(Collection $rows)
{
foreach ($rows as $row) {
// 处理每行数据
User::create([
'name' => $row[0],
'email' => $row[1],
]);
}
}
public function chunkSize(): int
{
return 1000; // 每1000条批量处理一次
}
}
在控制器中调用:
Excel::import(new LargeCsvImport, 'large-file.csv');
该方式自动启用缓存和分块读取,避免内存问题。
优化建议与注意事项
无论采用哪种方法,以下优化措施都能提升性能和稳定性:
- 关闭数据库查询日志:
\DB::disableQueryLog(),减少内存开销 - 使用事务控制或禁用自动提交,提高插入效率
- 设置脚本执行时间:
set_time_limit(0),防止超时 - 生产环境使用队列处理:将文件路径推送到队列,后台异步处理
- 验证文件编码和分隔符,避免解析错误(如中文乱码)
基本上就这些。关键是避免把整个CSV加载进内存,用流式或分块方式处理,就能轻松应对上百万行的数据导入。不复杂但容易忽略细节。










