Python文件操作的核心是open()函数,配合'r'、'w'、'a'等模式实现读写,推荐使用with open()确保文件正确关闭。处理大文件时应避免一次性读入内存,高效策略包括逐行读取(for line in f)和分块读取(f.read(chunk_size)),前者适用于文本文件按行处理,后者适合二进制或固定大小数据块的场景,有效降低内存占用。

Python在文件操作方面提供了非常直观且强大的接口,核心在于使用内置的open()函数。无论是读取现有文本内容,还是将数据写入新文件或追加到旧文件,open()函数配合不同的模式,都能轻松应对。为了确保资源被妥善管理,尤其推荐使用with open()语句,它能自动处理文件的关闭,避免很多潜在问题。
当我们谈论Python进行文件操作,尤其是文本文件的读写,其基石就是那个无处不在的open()函数。你传入文件名和操作模式,它就给你一个文件对象,后续所有的读写都围绕这个对象展开。
最常见的模式无非是'r'(读取)、'w'(写入,会覆盖原有内容)、'a'(追加,在文件末尾添加内容)。当然,还有'x'(独占创建,如果文件已存在则报错),以及'b'(二进制模式)和't'(文本模式,默认)的组合。我个人经验是,大部分时候,我们都在和文本文件打交道,所以't'模式是隐形的默认选项,但处理图片、音频这类就得显式地加上'b'。
读取文件: 最直接的方式就是迭代文件对象本身,它会一行一行地读取。
# 示例:逐行读取
try:
with open('my_document.txt', 'r', encoding='utf-8') as f:
for line in f:
print(line.strip()) # strip() 去掉每行末尾的换行符
except FileNotFoundError:
print("文件没找到,是不是路径错了?")
except Exception as e:
print(f"读取文件时出了点岔子: {e}")
# 或者一次性读完所有内容
with open('my_document.txt', 'r', encoding='utf-8') as f:
content = f.read()
print(content)
# 读取特定行数
with open('my_document.txt', 'r', encoding='utf-8') as f:
first_line = f.readline()
print(f"第一行: {first_line.strip()}")
# 还可以用readlines() 获取所有行作为一个列表
all_lines = f.readlines()
print(f"所有行(列表形式): {all_lines}")这里不得不提encoding参数,这玩意儿太重要了。如果你的文件不是UTF-8编码,但你用UTF-8去读,那基本就是一堆乱码。通常,utf-8是最佳实践,但遇到老旧系统或特定软件生成的文件,可能得尝试gbk、latin-1之类的。
立即学习“Python免费学习笔记(深入)”;
写入文件:
写入就相对直接,write()方法接收字符串。
# 示例:写入新内容(会覆盖)
with open('new_data.txt', 'w', encoding='utf-8') as f:
f.write("这是我写的第一行。\n")
f.write("这是第二行内容。\n")
print("文件 'new_data.txt' 已写入。")
# 示例:追加内容
with open('log.txt', 'a', encoding='utf-8') as f:
f.write("新的日志条目:操作成功。\n")
print("内容已追加到 'log.txt'。")
# 写入多行内容(从一个列表)
lines_to_write = ["列表中的第一行。\n", "列表中的第二行。\n", "最后一行。\n"]
with open('list_output.txt', 'w', encoding='utf-8') as f:
f.writelines(lines_to_write)
print("列表内容已写入 'list_output.txt'。")一个小提醒,write()不会自动添加换行符,所以如果你想每行独立,记得手动加上\n。writelines()则会直接写入列表中的每个字符串,它也不会自动加换行,这点要特别注意。
处理大型文件,比如几个GB的日志文件或数据集,直接用f.read()一次性读入内存,那简直是内存杀手。机器配置稍差一点,程序可能直接崩溃。所以,高效处理大文件的核心思路就是:不要一次性加载所有内容到内存。
最常用的方法就是逐行读取。我们之前展示的for line in f:循环就是这个原理。它不会把整个文件都读进来,而是在每次迭代时,从磁盘读取一小块数据(通常是到下一个换行符),处理完当前行再读取下一行。这就像一个水泵,一点点抽水,而不是把整个湖水都搬走。
# 示例:逐行处理大文件
def process_large_file_line_by_line(filepath):
line_count = 0
with open(filepath, 'r', encoding='utf-8') as f:
for line in f:
# 这里可以对每一行进行处理,比如解析、过滤、统计
# print(f"处理行: {line.strip()}")
line_count += 1
if line_count % 100000 == 0:
print(f"已处理 {line_count} 行...")
print(f"文件 '{filepath}' 处理完毕,总计 {line_count} 行。")
# 假设有一个很大的文件 'huge_log.txt'
# process_large_file_line_by_line('huge_log.txt')另一种策略是分块读取 (chunking),这对于处理二进制文件或者需要固定大小数据块的情况特别有用。你可以用f.read(chunk_size)来指定每次读取的字节数。
# 示例:分块读取(适用于二进制或固定大小块)
def process_file_in_chunks(filepath, chunk_size=4096): # 4KB
with open(filepath, 'rb') as f: # 注意这里是 'rb' 模式
while True:
chunk = f.read(chunk_size)
if not chunk:
break # 文件读取完毕
# 对 chunk 进行处理,比如写入新文件以上就是Python代码如何实现文件操作 Python代码读写文本文件的完整指南的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号