0

0

如何优化 Python 处理大型 CSV 文件时的内存使用

心靈之曲

心靈之曲

发布时间:2026-01-07 15:09:55

|

305人浏览过

|

来源于php中文网

原创

如何优化 Python 处理大型 CSV 文件时的内存使用

本文介绍多种高效处理 2gb–10gb 级 csv 文件的内存优化策略,涵盖 pandas 类型精简、分块读写、替代库选型及工程实践要点,助你在有限内存下稳定完成过滤、转换与导出任务。

处理大型 CSV 文件(2GB–10GB)时,直接使用 pd.read_csv() 加载全量数据极易触发 MemoryError——尤其在 16GB 内存以下的常规开发机或云服务器上。根本原因在于:pandas 默认将字符串列全部存储为 object 类型(实际是 Python 字符串对象指针数组),而数值列未显式指定精度,常默认为 int64/float64,造成严重内存冗余。以下是一套经过验证的、分层递进的优化方案:

✅ 一、类型优化:用 dtype 和 category 压缩内存

对重复值多的文本列(如状态码、地区、分类标签),强制转为 category 类型可节省 50%+ 内存;对数值列明确指定最小必要精度(如 int32、float32)。示例:

import pandas as pd

# 预先定义高效 dtype 映射(根据实际字段调整)
dtypes = {
    'status': 'category',
    'region': 'category',
    'user_id': 'uint32',      # 若最大值 < 4.3B
    'score': 'float32',
    'timestamp': 'int64'      # 或使用 pd.to_datetime(..., cache=True) 延迟解析
}

df = pd.read_csv('large_input.csv', dtype=dtypes)
print(df.info(memory_usage='deep'))  # 对比优化前后内存占用
? 提示:使用 df.memory_usage(deep=True).sum() 快速估算当前内存占用;df.select_dtypes('object').nunique() 可快速识别适合转 category 的高重复列。

✅ 二、分块处理(Chunking):流式读取 + 增量写入

当数据无法完全驻留内存时,必须放弃“全量加载→处理→保存”模式,改用分块流式处理。关键原则:每块独立完成过滤/转换,并立即追加写入输出文件(避免累积中间结果)

def process_large_csv_chunked(input_file, output_file, chunk_size=50000):
    first_chunk = True
    for chunk in pd.read_csv(input_file, chunksize=chunk_size, dtype=dtypes):
        # 在 chunk 上执行轻量级转换(避免 .copy() 或复杂 apply)
        filtered_chunk = chunk[chunk['value'] > 100].copy()
        filtered_chunk['new_col'] = filtered_chunk['old_col'].str.upper()

        # 首次写入含 header,后续追加不写 header
        filtered_chunk.to_csv(
            output_file,
            mode='w' if first_chunk else 'a',
            header=first_chunk,
            index=False
        )
        first_chunk = False
        # 可选:显式删除 chunk 引用,协助 GC
        del chunk, filtered_chunk

process_large_csv_chunked('large_input.csv', 'transformed_output.csv')

⚠️ 注意事项:

NetShop网店系统
NetShop网店系统

NetShop软件特点介绍: 1、使用ASP.Net(c#)2.0、多层结构开发 2、前台设计不采用任何.NET内置控件读取数据,完全标签化模板处理,加快读取速度3、安全的数据添加删除读取操作,利用存储过程模式彻底防制SQL注入式攻击4、前台架构DIV+CSS兼容IE6,IE7,FF等,有利于搜索引挚收录5、后台内置强大的功能,整合多家网店系统的功能,加以优化。6、支持三种类型的数据库:Acces

下载

立即学习Python免费学习笔记(深入)”;

  • chunksize 并非越大越好:建议从 10k–100k 行起步测试,观察内存峰值(可用 memory_profiler 工具监控);
  • 避免跨 chunk 的聚合操作(如全局 groupby().sum()),此类需求应改用 dask 或数据库;
  • to_csv(..., mode='a') 在 Windows 下需确保文件未被其他进程锁定。

✅ 三、进阶替代方案(按场景选择)

场景 推荐工具 优势
纯 ETL 流水线(无复杂分析) csv 模块 + DictReader/DictWriter 零 pandas 依赖,内存恒定 ≈ 单行大小,适合简单过滤/映射
需要类 pandas API 且支持并行 dask.dataframe 自动分块+延迟计算,语法兼容 pandas,支持 read_csv(..., blocksize='128MB')
超大规模(>50GB)或需 SQL 能力 polars(Rust 实现) 内存效率显著优于 pandas,scan_csv() 支持惰性加载,.filter().with_columns().sink_csv() 一行链式处理

示例(Polars):

import polars as pl

# 惰性读取(不立即加载)
lf = pl.scan_csv('large_input.csv', dtypes={'status': pl.Categorical})
result = (
    lf.filter(pl.col('value') > 100)
      .with_columns(pl.col('name').str.to_uppercase().alias('NAME'))
      .sink_csv('transformed_output.csv')  # 直接写入磁盘,不返回 DataFrame
)

✅ 四、关键总结

  • 优先做 dtype 优化:这是成本最低、见效最快的内存压缩手段;
  • 分块是底线策略:只要单块能 fit 进内存,就能处理任意大小文件;
  • 警惕隐式拷贝:避免 df.iloc[:], df.assign(...), .copy() 等无意识复制;
  • 日志与监控不可少:在循环中加入 print(f"Processed {i * chunk_size} rows") 和内存快照(psutil.Process().memory_info().rss / 1024**2);
  • 最后提醒:若业务允许,将原始数据预处理为 Parquet 格式(列存+压缩),后续读取速度提升 3–10 倍,内存降低 50–80%,是长期最优解。

通过组合运用以上方法,即使在 8GB 内存机器上,也能稳健处理 10GB CSV 的清洗与转换任务。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
C++系统编程内存管理_C++系统编程怎么与Rust竞争内存安全
C++系统编程内存管理_C++系统编程怎么与Rust竞争内存安全

C++系统编程中的内存管理是指 对程序运行时内存的申请、使用和释放进行精细控制的机制,涵盖了栈、堆、静态区等不同区域,开发者需要通过new/delete、智能指针或内存池等方式管理动态内存,以避免内存泄漏、野指针等问题,确保程序高效稳定运行。它核心在于开发者对低层内存有完全控制权,带来灵活性,但也伴随高责任,是C++性能优化的关键。

13

2025.12.22

Rust异步编程与Tokio运行时实战
Rust异步编程与Tokio运行时实战

本专题聚焦 Rust 语言的异步编程模型,深入讲解 async/await 机制与 Tokio 运行时的核心原理。内容包括异步任务调度、Future 执行模型、并发安全、网络 IO 编程以及高并发场景下的性能优化。通过实战示例,帮助开发者使用 Rust 构建高性能、低延迟的后端服务与网络应用。

9

2026.02.11

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

216

2026.03.05

数据分析工具有哪些
数据分析工具有哪些

数据分析工具有Excel、SQL、Python、R、Tableau、Power BI、SAS、SPSS和MATLAB等。详细介绍:1、Excel,具有强大的计算和数据处理功能;2、SQL,可以进行数据查询、过滤、排序、聚合等操作;3、Python,拥有丰富的数据分析库;4、R,拥有丰富的统计分析库和图形库;5、Tableau,提供了直观易用的用户界面等等。

1133

2023.10.12

SQL中distinct的用法
SQL中distinct的用法

SQL中distinct的语法是“SELECT DISTINCT column1, column2,...,FROM table_name;”。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

340

2023.10.27

SQL中months_between使用方法
SQL中months_between使用方法

在SQL中,MONTHS_BETWEEN 是一个常见的函数,用于计算两个日期之间的月份差。想了解更多SQL的相关内容,可以阅读本专题下面的文章。

381

2024.02.23

SQL出现5120错误解决方法
SQL出现5120错误解决方法

SQL Server错误5120是由于没有足够的权限来访问或操作指定的数据库或文件引起的。想了解更多sql错误的相关内容,可以阅读本专题下面的文章。

2132

2024.03.06

sql procedure语法错误解决方法
sql procedure语法错误解决方法

sql procedure语法错误解决办法:1、仔细检查错误消息;2、检查语法规则;3、检查括号和引号;4、检查变量和参数;5、检查关键字和函数;6、逐步调试;7、参考文档和示例。想了解更多语法错误的相关内容,可以阅读本专题下面的文章。

380

2024.03.06

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

4

2026.03.10

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.9万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号