0

0

python怎么将数据写入CSV文件_python CSV文件写入操作指南

穿越時空

穿越時空

发布时间:2025-09-16 21:10:01

|

275人浏览过

|

来源于php中文网

原创

Python写入CSV文件的核心是使用csv模块或pandas库。首先推荐用csv.writer处理列表数据,csv.DictWriter处理字典数据,二者均需设置newline=''和encoding避免空行与乱码;对于含逗号、引号等特殊字符的数据,通过quoting参数(如QUOTE_MINIMAL或QUOTE_ALL)确保格式正确;写入海量数据时,应优先使用writerows()批量写入,结合生成器降低内存占用,或采用pandas的to_csv()提升性能;全程建议使用with语句确保文件正确关闭,保障数据完整性与系统资源释放。

python怎么将数据写入csv文件_python csv文件写入操作指南

Python将数据写入CSV文件,核心思路就是把内存中的结构化数据(比如列表或字典)序列化成逗号分隔的文本格式。最常用且可靠的方式是利用Python内置的

csv
模块,它能很好地处理各种细节,避免手动拼接字符串带来的麻烦。当然,如果数据处理更复杂,
pandas
库会是另一个极其强大的选择。

解决方案

在Python中将数据写入CSV文件,我们通常会用到

csv
模块。这个模块设计得相当周到,能帮你处理CSV格式里那些让人头疼的细节,比如特殊字符的引用(quoting)和行结束符。

最直接的方法是使用

csv.writer
对象。它接受一个文件对象作为参数,然后你就可以用它的
writerow()
方法逐行写入数据,或者用
writerows()
一次性写入多行。

立即学习Python免费学习笔记(深入)”;

import csv

# 假设我们有一些数据,可以是列表的列表
data_to_write = [
    ['姓名', '年龄', '城市'],
    ['张三', 25, '北京'],
    ['李四', 30, '上海'],
    ['王五', 28, '广州']
]

# 打开文件,注意这里用 'w' 模式表示写入,'newline=''' 很重要,
# 它可以防止在Windows系统上写入时出现额外的空行。
try:
    with open('output_data.csv', 'w', newline='', encoding='utf-8') as csvfile:
        # 创建一个csv写入器对象
        csv_writer = csv.writer(csvfile)

        # 写入表头
        csv_writer.writerow(data_to_write[0])

        # 写入剩余的数据
        csv_writer.writerows(data_to_write[1:])

    print("数据已成功写入 output_data.csv")
except IOError as e:
    print(f"写入文件时发生错误: {e}")
except Exception as e:
    print(f"发生未知错误: {e}")

如果你的数据是以字典的形式组织,那

csv.DictWriter
就显得更方便了。它能自动将字典的键映射到CSV的列名,省去了手动排序的麻烦。

import csv

# 假设我们有一些字典列表形式的数据
dict_data_to_write = [
    {'姓名': '赵六', '年龄': 35, '城市': '深圳'},
    {'姓名': '钱七', '年龄': 22, '城市': '杭州'},
    {'姓名': '孙八', '年龄': 40, '城市': '成都'}
]

# 定义字段名,这会作为CSV的表头
fieldnames = ['姓名', '年龄', '城市']

try:
    with open('output_dict_data.csv', 'w', newline='', encoding='utf-8') as csvfile:
        # 创建DictWriter对象,并指定字段名
        dict_writer = csv.DictWriter(csvfile, fieldnames=fieldnames)

        # 写入表头
        dict_writer.writeheader()

        # 写入数据行
        dict_writer.writerows(dict_data_to_write)

    print("字典数据已成功写入 output_dict_data.csv")
except IOError as e:
    print(f"写入文件时发生错误: {e}")
except Exception as e:
    print(f"发生未知错误: {e}")

至于

pandas
,它在数据分析领域简直是神器。如果你已经习惯用DataFrame来处理数据,那么写入CSV就更简单了,一行代码的事。

import pandas as pd

# 假设我们有一个DataFrame
df_data = pd.DataFrame({
    '产品': ['A', 'B', 'C'],
    '价格': [100, 150, 200],
    '销量': [1000, 800, 1200]
})

try:
    df_data.to_csv('output_pandas_data.csv', index=False, encoding='utf-8')
    print("Pandas DataFrame数据已成功写入 output_pandas_data.csv")
except Exception as e:
    print(f"使用Pandas写入文件时发生错误: {e}")

index=False
是为了避免将DataFrame的索引也写入CSV文件,这通常不是我们想要的。

CSV文件写入时,如何有效处理编码问题,告别恼人的乱码?

编码问题,说实话,是文件操作中最常见的“拦路虎”之一。尤其是在跨平台或者处理来自不同源的数据时,乱码就像个幽灵,时不时就冒出来。核心在于,当我们用

open()
函数打开文件时,一定要明确告诉Python你打算用哪种编码来读写。

在Python 3中,默认的文本文件编码通常是UTF-8,这在绝大多数情况下是个好选择,因为它能支持几乎所有的字符。但在某些特定场景,比如你可能需要和一些老旧系统或者特定地区的软件交互,它们可能习惯使用GBK(中文Windows系统常见)或其他编码。

所以,在

open()
函数里加上
encoding='utf-8'
或者
encoding='gbk'
就显得尤为关键。我个人习惯是,只要没有特殊要求,一律先用
utf-8

import csv

data = [['你好', '世界'], ['Python', '编程']]

# 使用UTF-8编码写入
try:
    with open('utf8_output.csv', 'w', newline='', encoding='utf-8') as f:
        writer = csv.writer(f)
        writer.writerows(data)
    print("UTF-8编码文件写入成功。")
except Exception as e:
    print(f"UTF-8写入失败: {e}")

# 如果你需要兼容旧系统,可能需要GBK编码
# 注意:在非Windows系统上,GBK编码可能需要安装额外的编码支持
try:
    with open('gbk_output.csv', 'w', newline='', encoding='gbk') as f:
        writer = csv.writer(f)
        writer.writerows(data)
    print("GBK编码文件写入成功。")
except LookupError:
    print("GBK编码在当前系统可能不支持或未安装。")
except Exception as e:
    print(f"GBK写入失败: {e}")

还有一点非常重要,就是

newline=''
这个参数。它告诉Python,不要在写入CSV文件时自动进行任何行结束符转换。CSV模块自己会处理好行结束符,如果你不加
newline=''
,尤其是在Windows上,可能会导致每行数据后面多出一个空行,这会把文件格式搞得一团糟。我曾经就因为这个小细节,花了不少时间去排查为什么导出的CSV文件总是多空行,真是个隐蔽的坑。

写入含有特殊字符的数据到CSV,Python如何确保格式不乱?

Cutout.Pro
Cutout.Pro

AI驱动的视觉设计平台

下载

CSV文件之所以叫“逗号分隔值”,是因为它通常用逗号来分隔字段。但如果你的数据本身就包含逗号,或者更麻烦的是包含引号(CSV里用来包裹字段的字符),那格式就很容易乱掉。比如

"Hello, World"
,如果直接写入,可能会被解析成两个字段:
"Hello
World"

这时候,

csv
模块的智能之处就体现出来了。它有一套标准的处理规则,主要通过“引用”(quoting)机制来解决。简单来说,就是当字段内容包含分隔符、引号或者换行符时,整个字段会被双引号包裹起来;如果字段本身就含有双引号,那内部的双引号会被转义成两个双引号。

csv.writer
csv.DictWriter
都接受
quoting
参数来控制这种行为:

  • csv.QUOTE_MINIMAL
    (默认): 只在必要时(字段包含分隔符、引号或换行符)才引用。这是最常用的。
  • csv.QUOTE_ALL
    : 引用所有字段,不管有没有特殊字符。
  • csv.QUOTE_NONNUMERIC
    : 引用所有非数字字段。
  • csv.QUOTE_NONE
    : 不引用任何字段。如果字段内容有特殊字符,那就会出问题。

通常情况下,使用默认的

QUOTE_MINIMAL
就足够了。但如果你想确保所有字段都被引用,比如为了和某些严格的解析器兼容,
QUOTE_ALL
也是个选择。

我们来看个例子:

import csv

# 包含逗号、引号和换行符的数据
special_data = [
    ['商品名称', '描述', '价格'],
    ['T恤', '纯棉,透气,"超舒服"!', '99.99'],
    ['杯子', '陶瓷制品,易碎\n请轻拿轻放', '25.00'],
    ['书', '一本关于Python编程的书籍,很有用', '50.50']
]

try:
    with open('special_chars_output.csv', 'w', newline='', encoding='utf-8') as csvfile:
        writer = csv.writer(csvfile, quoting=csv.QUOTE_MINIMAL) # 默认行为,但明确指定更好
        writer.writerows(special_data)
    print("包含特殊字符的数据已成功写入 special_chars_output.csv (QUOTE_MINIMAL)")

    with open('all_quoted_output.csv', 'w', newline='', encoding='utf-8') as csvfile:
        writer = csv.writer(csvfile, quoting=csv.QUOTE_ALL) # 所有字段都被引用
        writer.writerows(special_data)
    print("所有字段都被引用写入 all_quoted_output.csv (QUOTE_ALL)")

    # 还可以自定义分隔符和引用字符
    with open('custom_delimiter_output.csv', 'w', newline='', encoding='utf-8') as csvfile:
        # 用分号作为分隔符,单引号作为引用字符
        writer = csv.writer(csvfile, delimiter=';', quotechar="'", quoting=csv.QUOTE_MINIMAL)
        writer.writerows(special_data)
    print("自定义分隔符和引用字符写入 custom_delimiter_output.csv")

except Exception as e:
    print(f"写入特殊字符数据时发生错误: {e}")

通过调整

quoting
参数,以及
delimiter
(分隔符)和
quotechar
(引用字符)参数,我们可以非常灵活地控制CSV文件的格式,确保数据在写入和后续读取时都能保持完整和正确。这在处理一些“非标准”CSV文件时特别有用,比如有些系统可能用分号或制表符做分隔符。

处理海量数据写入CSV文件时,Python有哪些性能优化策略和注意事项?

当数据量达到百万、千万甚至上亿级别时,文件I/O操作的性能就成了不得不考虑的问题。Python的

csv
模块本身是C语言实现的,效率已经很高,但我们仍然可以从几个方面去优化。

首先,也是最直接的,就是利用

writerows()
方法。前面我们看到它能接受一个可迭代对象(比如列表的列表),然后一次性将多行数据写入文件。相比于循环调用
writerow()
writerows()
能显著减少Python和底层I/O系统之间的交互次数,从而提升效率。

import csv
import time

# 生成大量模拟数据
large_data = [[f'Name_{i}', i, f'City_{i % 10}'] for i in range(1000000)] # 100万行数据

start_time = time.time()
try:
    with open('large_output.csv', 'w', newline='', encoding='utf-8') as csvfile:
        writer = csv.writer(csvfile)
        writer.writerow(['Name', 'ID', 'City']) # 写入表头
        writer.writerows(large_data) # 一次性写入所有数据
    end_time = time.time()
    print(f"使用writerows写入100万行数据耗时: {end_time - start_time:.2f} 秒")
except Exception as e:
    print(f"写入大型数据时发生错误: {e}")

其次,如果你的数据是分块生成的,或者你不想一次性把所有数据都加载到内存中(这对于超大数据集来说是必须的),那么使用生成器(generator)会是个非常优雅的解决方案。生成器能按需生成数据,避免内存溢出。

import csv
import time

def generate_large_data_chunks(num_rows, chunk_size):
    """模拟分块生成数据"""
    for i in range(num_rows):
        yield [f'Name_{i}', i, f'City_{i % 10}']
        if (i + 1) % chunk_size == 0:
            # 可以在这里做一些批处理或日志记录
            pass

num_total_rows = 5000000 # 500万行
chunk_size = 100000 # 每次处理10万行

start_time = time.time()
try:
    with open('large_output_generator.csv', 'w', newline='', encoding='utf-8') as csvfile:
        writer = csv.writer(csvfile)
        writer.writerow(['Name', 'ID', 'City'])
        # 直接将生成器传给writerows
        writer.writerows(generate_large_data_chunks(num_total_rows, chunk_size))
    end_time = time.time()
    print(f"使用生成器写入{num_total_rows}行数据耗时: {end_time - start_time:.2f} 秒")
except Exception as e:
    print(f"使用生成器写入大型数据时发生错误: {e}")

再者,对于真正意义上的“海量数据”,比如GB级别甚至TB级别的数据,

pandas
库的
to_csv()
方法由于其底层C语言的优化,通常会表现出更好的性能和内存管理能力。它在处理大型DataFrame时,效率往往比纯Python的
csv
模块更高。如果你已经在使用
pandas
进行数据清洗和转换,那么直接用
to_csv()
是最佳实践。

最后,一个容易被忽视但非常重要的细节是:确保文件操作完成后,文件句柄被正确关闭。使用

with open(...) as ...:
语句是最佳实践,它能保证无论是否发生异常,文件都会被自动关闭,释放资源。这对于长时间运行的程序或处理大量文件时,能有效避免资源泄露。

总结来说,对于写入大型CSV文件,优先考虑

writerows()
批量写入,结合生成器处理超大数据集以节省内存,以及在合适时机利用
pandas
的强大功能,这些都是行之有效的策略。别忘了,编码和
newline=''
的细节也同样重要,它们是保证数据正确性的基石。

相关文章

python速学教程(入门到精通)
python速学教程(入门到精通)

python怎么学习?python怎么入门?python在哪学?python怎么学才快?不用担心,这里为大家提供了python速学教程(入门到精通),有需要的小伙伴保存下载就能学习啦!

下载

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
C语言变量命名
C语言变量命名

c语言变量名规则是:1、变量名以英文字母开头;2、变量名中的字母是区分大小写的;3、变量名不能是关键字;4、变量名中不能包含空格、标点符号和类型说明符。php中文网还提供c语言变量的相关下载、相关课程等内容,供大家免费下载使用。

401

2023.06.20

c语言入门自学零基础
c语言入门自学零基础

C语言是当代人学习及生活中的必备基础知识,应用十分广泛,本专题为大家c语言入门自学零基础的相关文章,以及相关课程,感兴趣的朋友千万不要错过了。

620

2023.07.25

c语言运算符的优先级顺序
c语言运算符的优先级顺序

c语言运算符的优先级顺序是括号运算符 > 一元运算符 > 算术运算符 > 移位运算符 > 关系运算符 > 位运算符 > 逻辑运算符 > 赋值运算符 > 逗号运算符。本专题为大家提供c语言运算符相关的各种文章、以及下载和课程。

354

2023.08.02

c语言数据结构
c语言数据结构

数据结构是指将数据按照一定的方式组织和存储的方法。它是计算机科学中的重要概念,用来描述和解决实际问题中的数据组织和处理问题。数据结构可以分为线性结构和非线性结构。线性结构包括数组、链表、堆栈和队列等,而非线性结构包括树和图等。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

259

2023.08.09

c语言random函数用法
c语言random函数用法

c语言random函数用法:1、random.random,随机生成(0,1)之间的浮点数;2、random.randint,随机生成在范围之内的整数,两个参数分别表示上限和下限;3、random.randrange,在指定范围内,按指定基数递增的集合中获得一个随机数;4、random.choice,从序列中随机抽选一个数;5、random.shuffle,随机排序。

606

2023.09.05

c语言const用法
c语言const用法

const是关键字,可以用于声明常量、函数参数中的const修饰符、const修饰函数返回值、const修饰指针。详细介绍:1、声明常量,const关键字可用于声明常量,常量的值在程序运行期间不可修改,常量可以是基本数据类型,如整数、浮点数、字符等,也可是自定义的数据类型;2、函数参数中的const修饰符,const关键字可用于函数的参数中,表示该参数在函数内部不可修改等等。

531

2023.09.20

c语言get函数的用法
c语言get函数的用法

get函数是一个用于从输入流中获取字符的函数。可以从键盘、文件或其他输入设备中读取字符,并将其存储在指定的变量中。本文介绍了get函数的用法以及一些相关的注意事项。希望这篇文章能够帮助你更好地理解和使用get函数 。

647

2023.09.20

c数组初始化的方法
c数组初始化的方法

c语言数组初始化的方法有直接赋值法、不完全初始化法、省略数组长度法和二维数组初始化法。详细介绍:1、直接赋值法,这种方法可以直接将数组的值进行初始化;2、不完全初始化法,。这种方法可以在一定程度上节省内存空间;3、省略数组长度法,这种方法可以让编译器自动计算数组的长度;4、二维数组初始化法等等。

604

2023.09.22

C++ 设计模式与软件架构
C++ 设计模式与软件架构

本专题深入讲解 C++ 中的常见设计模式与架构优化,包括单例模式、工厂模式、观察者模式、策略模式、命令模式等,结合实际案例展示如何在 C++ 项目中应用这些模式提升代码可维护性与扩展性。通过案例分析,帮助开发者掌握 如何运用设计模式构建高质量的软件架构,提升系统的灵活性与可扩展性。

14

2026.01.30

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.4万人学习

Django 教程
Django 教程

共28课时 | 3.7万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号