0

0

Pandas 数据聚合优化:利用 Pivot 提升效率与代码简洁性

DDD

DDD

发布时间:2025-09-10 14:53:28

|

581人浏览过

|

来源于php中文网

原创

Pandas 数据聚合优化:利用 Pivot 提升效率与代码简洁性

本文旨在解决使用 Pandas 进行数据聚合时,因频繁的筛选和合并操作导致的冗余代码问题。我们将介绍如何利用 Pandas 的 pivot 函数高效重塑数据,并通过简洁的代码实现复杂的统计计算,从而显著提升数据处理效率和代码可维护性,避免不必要的中间 DataFrame。

传统数据聚合方法的痛点

在数据分析工作中,我们经常需要从原始数据集中提取特定子集,进行计算,然后将结果合并。例如,根据不同的条件(如 regions 和 n)筛选数据,计算特定指标(如 length),再将这些结果通过 merge 操作组合起来。这种方法虽然能达到目的,但在实际操作中往往面临以下问题:

  1. 代码冗长且重复: 每次筛选和计算都需要单独的代码块,当需要处理的组合条件增多时,代码量会急剧膨胀。
  2. 效率低下: 频繁创建中间 DataFrame 并执行 merge 操作,尤其是在处理百万级别甚至更大数据量时,会带来显著的性能开销。
  3. 可读性差: 大量的筛选和合并逻辑使得代码难以理解,增加了维护成本。
  4. 易出错: 重复的代码模式更容易引入复制粘贴错误,导致结果不准确。

以下是原始问题中展示的示例代码片段,它清晰地体现了这种重复性:

# 原始的重复筛选和合并操作示例
df_cap_N90 = df_stats[(df_stats['N'] == 90) & (df_stats['regions'] == 'captured')].drop(columns=['regions', 'N'])
df_cap_N50 = df_stats[(df_stats['N'] == 50) & (df_stats['regions'] == 'captured')].drop(columns=['regions', 'N'])
df_all_N50 = df_stats[(df_stats['N'] == 50) & (df_stats['regions'] == 'all')     ].drop(columns=['regions', 'N'])

df_summ_cap_N50_all_N50 = pd.merge(df_cap_N50, df_all_N50, on='enzyme', how='inner', suffixes=('_cap_N50', '_all_N50'))
df_summ_cap_N50_all_N50['cap_N50_all_N50'] = (df_summ_cap_N50_all_N50['length_cap_N50'] -
                                              df_summ_cap_N50_all_N50['length_all_N50'])

df_summ_cap_N90_all_N50 = pd.merge(df_cap_N90, df_all_N50, on='enzyme', how='inner', suffixes=('_cap_N90', '_all_N50'))
df_summ_cap_N90_all_N50['cap_N90_all_N50'] = df_summ_cap_N90_all_N50['length_cap_N90'] - df_summ_cap_N90_all_N50['length_all_N50']

df_summ = pd.merge(df_summ_cap_N50_all_N50.drop(columns=['length_cap_N50', 'length_all_N50']),
                   df_summ_cap_N90_all_N50.drop(columns=['length_cap_N90', 'length_all_N50']),
                   on='enzyme', how='inner')

Pandas pivot 函数:数据重塑的利器

为了解决上述问题,Pandas 提供了 pivot 函数,它能够将“长格式”数据(即多个变量的值存储在同一列中,通过其他列标识其类型)转换为“宽格式”数据(即每个变量类型拥有独立的列)。这种重塑操作能极大地简化后续的计算逻辑。

pivot 函数的核心参数包括:

  • index: 用于创建新 DataFrame 的行索引的列。
  • columns: 用于创建新 DataFrame 的列索引的列(可以是一个列表,生成多级列索引)。
  • values: 用于填充新 DataFrame 单元格的值的列。

示例数据准备

首先,我们加载并查看原始数据:

import io
import pandas as pd

TESTDATA="""
enzyme  regions   N   length
AaaI    all       10  238045
AaaI    all       20  170393
AaaI    all       30  131782
AaaI    all       40  103790
AaaI    all       50  81241246
AaaI    all       60  62469
AaaI    all       70  46080
AaaI    all       80  31340
AaaI    all       90  17188
AaaI    captured  10  292735
AaaI    captured  20  229824
AaaI    captured  30  193605
AaaI    captured  40  163710
AaaI    captured  50  138271
AaaI    captured  60  116122
AaaI    captured  70  95615
AaaI    captured  80  73317
AaaI    captured  90  50316
AagI    all       10  88337
AagI    all       20  19144
AagI    all       30  11030
AagI    all       40  8093
AagI    all       50  6394
AagI    all       60  4991
AagI    all       70  3813
AagI    all       80  2759
AagI    all       90  1666
AagI    captured  10  34463
AagI    captured  20  19220
AagI    captured  30  15389
AagI    captured  40  12818
AagI    captured  50  10923
AagI    captured  60  9261
AagI    captured  70  7753
AagI    captured  80  6201
AagI    captured  90  4495
"""

df_stats = pd.read_csv(io.StringIO(TESTDATA), sep='\s+')
print("原始数据 df_stats 头部:")
print(df_stats.head())

输出:

ONLYOFFICE
ONLYOFFICE

用ONLYOFFICE管理你的网络私人办公室

下载
原始数据 df_stats 头部:
  enzyme regions   N  length
0   AaaI     all  10  238045
1   AaaI     all  20  170393
2   AaaI     all  30  131782
3   AaaI     all  40  103790
4   AaaI     all  50   81241246

使用 pivot 重塑数据

为了进行 cap_N50_all_N50 和 cap_N90_all_N50 的计算,我们只需要 N 为 50 和 90 的数据。首先筛选出这些数据,然后使用 pivot 进行重塑。

# 筛选出 N 为 50 或 90 的数据,这是后续计算所需
filtered_df = df_stats.loc[df_stats["N"].isin([50, 90])]

# 使用 pivot 重塑数据
# index='enzyme' 将 enzyme 作为新的行索引
# columns=['regions', 'N'] 将 regions 和 N 的组合作为新的列索引(多级列)
# values='length' 将 length 列的值填充到新的单元格中
pivoted_df = filtered_df.pivot(index="enzyme", columns=["regions", "N"], values="length")

print("\n重塑后的 pivoted_df 头部:")
print(pivoted_df.head())

输出:

重塑后的 pivoted_df 头部:
regions   all         captured    
N          50      90       50      90
enzyme                              
AaaI    81241246   17188   138271   50316
AagI     6394    1666    10923    4495

可以看到,pivoted_df 现在是一个宽格式的 DataFrame,enzyme 作为行索引,regions 和 N 的组合作为多级列索引。所有需要进行计算的值都已排列在同一行中,使得后续操作变得非常直接。

基于重塑数据的统计计算

数据重塑完成后,复杂的跨列计算就变得异常简单。我们可以直接通过列名访问数据,并利用 Pandas 的内置方法进行高效的向量化操作。

# 进行统计计算
# 从 'captured' 区域的 N50/N90 值中减去 'all' 区域的 N50 值
# pivoted_df["captured"] 选取所有 'captured' 区域的列(N50, N90)
# pivoted_df[("all", 50)] 选取 'all' 区域的 N50 列
# .sub() 方法执行减法,axis=0 表示按行对齐索引进行操作
result_df = (pivoted_df["captured"]
             .sub(pivoted_df[("all", 50)], axis=0)
             .add_prefix("cap_N") # 为列添加前缀 'cap_N'
             .add_suffix("_all_N50") # 为列添加后缀 '_all_N50'
             .reset_index()) # 将 enzyme 索引重置为普通列

print("\n最终结果 result_df:")
print(result_df)

输出:

最终结果 result_df:
N enzyme  cap_N50_all_N50  cap_N90_all_N50
0   AaaI            57025           -30930
1   AagI             4529            -1899

通过上述代码,我们仅用了几行简洁的代码就实现了与原始冗长代码相同的结果,并且逻辑更加清晰。

优化效果与优势

与原始的重复筛选和合并方法相比,使用 pivot 进行数据聚合和计算带来了显著的优势:

  1. 代码简洁性: 将多步骤的筛选、合并和计算整合为少数几行代码,大大减少了代码量。
  2. 执行效率: pivot 操作在底层经过高度优化,且避免了多次创建中间 DataFrame 和执行昂贵的 merge 操作,这对于处理大数据集时性能提升尤为明显。
  3. 可读性与可维护性: 代码逻辑更加集中和直观,易于理解和后续修改。当需要添加新的计算组合时,只需在 pivot 后的 DataFrame 上进行简单的列操作即可。
  4. 灵活性: 这种模式便于扩展。如果需要计算更多 N 值或 regions 类型的组合,只需调整 filtered_df 的筛选条件和后续的列操作即可。

注意事项与最佳实践

  • pivot 与 pivot_table 的选择: pivot 函数要求 index 和 columns 参数的组合必须是唯一的,否则会报错。如果存在重复的 index/columns 组合,并且需要对 values 进行聚合(如求和、平均值等),则应使用功能更强大的 pivot_table 函数,它允许指定聚合函数 aggfunc。在本例中,enzyme、regions 和 N 的组合是唯一的,因此 pivot 适用。
  • 缺失值处理: 如果某些 index/columns 组合在原始数据中不存在,pivot 操作会在新生成的 DataFrame 中填充 NaN。在进行后续计算前,可能需要使用 fillna() 等方法处理这些缺失值。
  • 性能考量: 尽管 pivot 效率高,但对于拥有极大量唯一 columns

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

62

2025.12.04

length函数用法
length函数用法

length函数用于返回指定字符串的字符数或字节数。可以用于计算字符串的长度,以便在查询和处理字符串数据时进行操作和判断。 需要注意的是length函数计算的是字符串的字符数,而不是字节数。对于多字节字符集,一个字符可能由多个字节组成。因此,length函数在计算字符串长度时会将多字节字符作为一个字符来计算。更多关于length函数的用法,大家可以阅读本专题下面的文章。

927

2023.09.19

java入门学习合集
java入门学习合集

本专题整合了java入门学习指南、初学者项目实战、入门到精通等等内容,阅读专题下面的文章了解更多详细学习方法。

1

2026.01.29

java配置环境变量教程合集
java配置环境变量教程合集

本专题整合了java配置环境变量设置、步骤、安装jdk、避免冲突等等相关内容,阅读专题下面的文章了解更多详细操作。

1

2026.01.29

java成品学习网站推荐大全
java成品学习网站推荐大全

本专题整合了java成品网站、在线成品网站源码、源码入口等等相关内容,阅读专题下面的文章了解更多详细推荐内容。

0

2026.01.29

Java字符串处理使用教程合集
Java字符串处理使用教程合集

本专题整合了Java字符串截取、处理、使用、实战等等教程内容,阅读专题下面的文章了解详细操作教程。

0

2026.01.29

Java空对象相关教程合集
Java空对象相关教程合集

本专题整合了Java空对象相关教程,阅读专题下面的文章了解更多详细内容。

3

2026.01.29

clawdbot ai使用教程 保姆级clawdbot部署安装手册
clawdbot ai使用教程 保姆级clawdbot部署安装手册

Clawdbot是一个“有灵魂”的AI助手,可以帮用户清空收件箱、发送电子邮件、管理日历、办理航班值机等等,并且可以接入用户常用的任何聊天APP,所有的操作均可通过WhatsApp、Telegram等平台完成,用户只需通过对话,就能操控设备自动执行各类任务。

24

2026.01.29

clawdbot龙虾机器人官网入口 clawdbot ai官方网站地址
clawdbot龙虾机器人官网入口 clawdbot ai官方网站地址

clawdbot龙虾机器人官网入口:https://clawd.bot/,clawdbot ai是一个“有灵魂”的AI助手,可以帮用户清空收件箱、发送电子邮件、管理日历、办理航班值机等等,并且可以接入用户常用的任何聊天APP,所有的操作均可通过WhatsApp、Telegram等平台完成,用户只需通过对话,就能操控设备自动执行各类任务。

16

2026.01.29

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
CSS3 教程
CSS3 教程

共18课时 | 5万人学习

PostgreSQL 教程
PostgreSQL 教程

共48课时 | 8.1万人学习

Django 教程
Django 教程

共28课时 | 3.7万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号