0

0

Python中如何操作Parquet文件?pyarrow使用指南

雪夜

雪夜

发布时间:2025-07-16 10:50:02

|

809人浏览过

|

来源于php中文网

原创

python中操作parquet文件的核心工具是pyarrow。1. 使用pyarrow.parquet模块的read_table和write_table函数实现parquet文件的读写;2. 利用pa.table.from_pandas()和to_pandas()实现与pandas的高效转换;3. 处理大型文件时,可通过分块读取(iter_batches)控制内存使用;4. 使用谓词下推(filters)和列裁剪(columns)提升查询效率;5. 通过pyarrow.dataset模块统一管理分区数据集,并支持过滤和自动schema识别;6. 注意数据类型映射、preserve_index参数设置以及异常处理,以避免常见问题。parquet格式因其列式存储结构,在i/o效率、压缩率和schema演进方面具有显著优势,非常适合大数据分析场景。

Python中如何操作Parquet文件?pyarrow使用指南

在Python里要操作Parquet文件,pyarrow无疑是那个核心工具,它让这一切变得高效且直接。无论是读写数据,还是与Pandas等数据分析库无缝衔接,pyarrow都提供了底层支持和优化,尤其适合处理大规模数据集。

Python中如何操作Parquet文件?pyarrow使用指南

直接说解决方案,其实就是用pyarrow库。它提供了parquet模块,里头包含了读写Parquet文件的核心功能。最基础的,就是read_tablewrite_table这两个函数。它们能把Parquet文件直接转换成pyarrow.Table对象,或者反过来。

Python中如何操作Parquet文件?pyarrow使用指南
import pyarrow.parquet as pq
import pyarrow as pa
import pandas as pd

# 假设我们有一个DataFrame
data = {'col1': [1, 2, 3, 4],
        'col2': ['A', 'B', 'C', 'D'],
        'col3': [True, False, True, False]}
df = pd.DataFrame(data)

# 将Pandas DataFrame写入Parquet文件
# 这里可以指定压缩方式,比如'snappy','gzip','brotli'等
table = pa.Table.from_pandas(df)
pq.write_table(table, 'example.parquet', compression='snappy')
print("文件已写入: example.parquet")

# 从Parquet文件读取数据
read_table = pq.read_table('example.parquet')
print("\n从Parquet文件读取的数据 (pyarrow.Table):")
print(read_table)

# 如果想转回Pandas DataFrame
read_df = read_table.to_pandas()
print("\n转换回Pandas DataFrame:")
print(read_df)

# 读取特定列
# 有时候我们只关心文件中的几列数据,而不是全部加载
partial_table = pq.read_table('example.parquet', columns=['col1', 'col3'])
print("\n只读取特定列 (col1, col3):")
print(partial_table)

为什么数据存储选择Parquet格式,它有什么优势?

说实话,第一次接触Parquet,我可能只是觉得它是一种文件格式,没什么特别的。但深入了解后,你会发现它在数据湖和大数据处理场景下,简直是神来之笔。它最大的亮点在于“列式存储”。这意味着数据不是按行排列的,而是按列存储。

立即学习Python免费学习笔记(深入)”;

这有什么好处呢?设想一下,你有一个巨大的表格,几百列,但你只想分析其中两三列的数据。如果数据是按行存的,数据库系统或者你的程序就得把整行都读进来,然后再挑出你需要的列。这就像去图书馆借一本书,结果图书馆把整个书架都搬给你,你再从里面找那本书。而列式存储呢,它直接就给你那几列的数据,效率高得不是一点半点。

Python中如何操作Parquet文件?pyarrow使用指南

所以,对分析型查询(OLAP)来说,Parquet简直是为它量身定做的。它能显著减少I/O操作,因为你不需要读取不相关的数据。此外,列式存储也更容易进行数据压缩,因为同一列的数据类型和模式通常是相似的,压缩算法能发挥更大效用,文件自然就小了。更小的文件意味着更快的传输速度,更少的存储成本。

还有一点,Parquet文件是自描述的,它包含了数据的Schema信息,而且支持Schema演进,这意味着你可以灵活地添加或删除列,而不会破坏现有数据。它还支持多种数据类型,并且与Hadoop、Spark、Presto、Dask等大数据生态系统无缝集成,这让它成为了构建现代数据湖的首选格式。在我看来,选择Parquet不仅仅是节省空间,更是为了未来数据分析的灵活性和性能打下基础。

pyarrow与pandas结合使用,有什么最佳实践?

Pandas是Python数据分析的利器,而pyarrow则是处理Parquet文件的高效引擎。它们俩的结合,简直是如虎添翼。但要用好,还是有些门道。

最直接的结合点就是pyarrow.Table.from_pandas()pyarrow.Table.to_pandas()。这俩函数负责pandas.DataFramepyarrow.Table之间的转换。通常,当你需要把一个Pandas DataFrame存成Parquet文件,或者从Parquet文件读出来变成DataFrame时,就会用到它们。

易森网络企业版
易森网络企业版

如果您是新用户,请直接将本程序的所有文件上传在任一文件夹下,Rewrite 目录下放置了伪静态规则和筛选器,可将规则添加进IIS,即可正常使用,不用进行任何设置;(可修改图片等)默认的管理员用户名、密码和验证码都是:yeesen系统默认关闭,请上传后登陆后台点击“核心管理”里操作如下:进入“配置管理”中的&ld

下载
import pandas as pd
import pyarrow as pa
import pyarrow.parquet as pq

# 准备一个DataFrame,包含一些常见的数据类型
df_complex = pd.DataFrame({
    'int_col': [1, 2, None, 4],
    'float_col': [1.1, 2.2, 3.3, None],
    'str_col': ['apple', 'banana', 'cherry', 'date'],
    'date_col': pd.to_datetime(['2023-01-01', '2023-01-02', '2023-01-03', '2023-01-04']),
    'bool_col': [True, False, True, False]
})

# 写入Parquet,注意这里可以控制Pandas索引是否写入
# 默认情况下,Pandas的索引会作为一列写入Parquet,这在某些场景下可能不是你想要的
table_from_df = pa.Table.from_pandas(df_complex, preserve_index=False)
pq.write_table(table_from_df, 'complex_data.parquet')
print("复杂数据DataFrame已写入: complex_data.parquet")

# 从Parquet读取,并转换回Pandas DataFrame
# 注意:pyarrow在处理缺失值和数据类型推断上可能与Pandas默认行为略有不同
# 比如Pandas的NaN在pyarrow中会映射为null,datetime with timezone可能需要特殊处理
read_back_df = pq.read_table('complex_data.parquet').to_pandas()
print("\n从Parquet读取并转换回Pandas DataFrame:")
print(read_back_df.info())

一个常见的“坑”是数据类型映射。Pandas的object类型通常用来存储字符串,但在pyarrow中,更明确的类型是stringbinaryfrom_pandas通常能很好地处理,但如果你在Pandas里混用了不同类型的对象在object列里,或者有复杂的自定义对象,可能会遇到序列化问题。明确地将Pandas列转换为pyarrow支持的类型,或者在写入前清理数据,是个好习惯。

另一个最佳实践是关于内存。当你的DataFrame非常大,大到内存装不下时,直接to_pandas()可能会导致内存溢出。pyarrow允许你分块读取Parquet文件,虽然pq.read_table本身是一次性加载,但通过ParquetFile对象和iter_batches方法,你可以迭代地处理数据,避免一次性加载所有数据到内存。

# 假设有一个非常大的Parquet文件
# 我们可以模拟一个大的Parquet文件
large_df = pd.DataFrame({
    'id': range(1_000_000),
    'value': [float(i) / 100 for i in range(1_000_000)]
})
large_table = pa.Table.from_pandas(large_df)
pq.write_table(large_table, 'large_example.parquet', row_group_size=100000) # 设置行组大小,方便分块读取

# 分块读取大型Parquet文件
parquet_file = pq.ParquetFile('large_example.parquet')
print(f"\n大型文件共有 {parquet_file.num_row_groups} 个行组。")

# 迭代读取每个行组,并转换为Pandas DataFrame
# 这种方式可以有效控制内存使用
for i, batch in enumerate(parquet_file.iter_batches(batch_size=50000)):
    batch_df = batch.to_pandas()
    print(f"处理第 {i+1} 批数据,大小: {len(batch_df)} 行")
    # 在这里可以对 batch_df 进行处理,比如写入数据库或聚合
    if i >= 1: # 只演示前两批
        break

通过这种方式,你可以将大文件切分成小块来处理,极大提升了内存效率。

处理大型Parquet文件时,pyarrow有哪些高级技巧或注意事项?

处理大型Parquet文件,特别是那种TB级别的数据集时,光会读写那点基础操作是远远不够的。pyarrow在这方面提供了不少高级功能,能让你事半功倍。

首先,是谓词下推(Predicate Pushdown)和列裁剪(Column Projection)。这听起来有点专业,但核心思想很简单:在读取数据之前,就告诉pyarrow你只想要哪些列,以及哪些行满足特定条件。pyarrow会利用Parquet文件的元数据(比如列的最小值、最大值等)来跳过那些不包含所需数据的行组(row group),甚至直接不读取不需要的列。这能极大地减少实际从磁盘读取的数据量,提升查询速度。

# 假设我们有一个包含日期和数值的Parquet文件
# 模拟数据,包含多个行组
data_rows = []
for i in range(100000):
    data_rows.append({
        'date': pd.Timestamp(f'2023-01-01') + pd.Timedelta(days=i),
        'value': i % 100,
        'category': f'cat_{i % 5}'
    })
large_df_filtered = pd.DataFrame(data_rows)
large_table_filtered = pa.Table.from_pandas(large_df_filtered)
pq.write_table(large_table_filtered, 'filtered_data.parquet', row_group_size=10000)

# 使用谓词下推和列裁剪
# 只读取 'value' 和 'category' 列,并且只读取 value > 90 的行
# 注意:pyarrow的过滤器表达式语法
filtered_table = pq.read_table(
    'filtered_data.parquet',
    columns=['value', 'category'],
    filters=[('value', '>', 90)]
)
print(f"\n使用谓词下推和列裁剪读取的数据量: {len(filtered_table)} 行")
print(filtered_table.to_pandas().head())

这里的filters参数就是谓词下推的体现。它会在读取数据时,尽可能地利用Parquet的内部结构来减少不必要的数据加载。

其次,是分区数据集(Partitioned Datasets)。在数据湖中,数据经常会按日期、地区或其他维度进行分区存储,形成类似data/year=2023/month=01/day=01/part-0.parquet这样的目录结构。pyarrow.dataset模块就是为处理这类多文件、多目录的数据集而设计的。它能让你像操作一个大文件一样操作整个数据集,pyarrow会自动发现并管理所有分区文件。

import pyarrow.dataset as ds
import os

# 模拟一个分区数据集
# 创建一些目录和文件
os.makedirs('my_partitioned_data/year=2023/month=01', exist_ok=True)
os.makedirs('my_partitioned_data/year=2023/month=02', exist_ok=True)

df_p1 = pd.DataFrame({'col_a': [1, 2], 'col_b': ['x', 'y']})
pq.write_table(pa.Table.from_pandas(df_p1), 'my_partitioned_data/year=2023/month=01/part1.parquet')

df_p2 = pd.DataFrame({'col_a': [3, 4], 'col_b': ['z', 'w']})
pq.write_table(pa.Table.from_pandas(df_p2), 'my_partitioned_data/year=2023/month=02/part2.parquet')

# 使用pyarrow.dataset读取分区数据集
dataset = ds.dataset('my_partitioned_data', format='parquet', partitioning='hive')

# 可以像查询一个表一样查询整个数据集
full_dataset_table = dataset.to_table()
print("\n读取整个分区数据集:")
print(full_dataset_table.to_pandas())

# 也可以对分区进行过滤
# 只读取 month=01 的数据
filtered_dataset_table = dataset.to_table(filter=(ds.field("month") == "01"))
print("\n过滤分区 (month='01') 后读取的数据:")
print(filtered_dataset_table.to_pandas())

pyarrow.dataset不仅支持读取,也支持写入分区数据集,并且能自动推断分区结构,非常强大。

最后,错误处理和Schema演进。在实际生产环境中,Parquet文件可能会因为各种原因损坏,或者Schema发生变化(比如添加了新列,或者改变了列的数据类型)。pyarrow通常能很好地处理Schema演进,但如果遇到不兼容的Schema变更(比如将整数列改为字符串列,且存在非数字值),可能会抛出错误。这时候,你需要仔细检查数据源和Schema定义。对于损坏的文件,pyarrow会直接抛出pyarrow.ArrowInvalid或其他相关的I/O错误,你需要捕获这些异常并进行处理,比如跳过损坏文件,或者尝试修复。这些细节在处理海量数据时,往往是决定项目成败的关键。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

78

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

32

2026.01.31

数据类型有哪几种
数据类型有哪几种

数据类型有整型、浮点型、字符型、字符串型、布尔型、数组、结构体和枚举等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

337

2023.10.31

php数据类型
php数据类型

本专题整合了php数据类型相关内容,阅读专题下面的文章了解更多详细内容。

224

2025.10.31

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

138

2026.02.12

string转int
string转int

在编程中,我们经常会遇到需要将字符串(str)转换为整数(int)的情况。这可能是因为我们需要对字符串进行数值计算,或者需要将用户输入的字符串转换为整数进行处理。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

1010

2023.08.02

js 字符串转数组
js 字符串转数组

js字符串转数组的方法:1、使用“split()”方法;2、使用“Array.from()”方法;3、使用for循环遍历;4、使用“Array.split()”方法。本专题为大家提供js字符串转数组的相关的文章、下载、课程内容,供大家免费下载体验。

760

2023.08.03

js截取字符串的方法
js截取字符串的方法

js截取字符串的方法有substring()方法、substr()方法、slice()方法、split()方法和slice()方法。本专题为大家提供字符串相关的文章、下载、课程内容,供大家免费下载体验。

221

2023.09.04

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

3

2026.03.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.9万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号