0

0

Python怎样实现数据分组统计?groupby高级用法解析

雪夜

雪夜

发布时间:2025-07-05 12:51:01

|

1168人浏览过

|

来源于php中文网

原创

python中实现数据分组统计的核心方法是pandas库的groupby(),其核心机制为“split-apply-combine”。1. 首先使用groupby()按一个或多个列分组;2. 然后对每组应用聚合函数(如sum(), mean(), count()等)进行计算;3. 最后将结果合并成一个新的dataframe或series。通过groupby()可以实现单列分组、多列分组、多种聚合函数组合、自定义聚合函数、重置索引等操作,还能结合agg()实现多层聚合分析,配合apply()和transform()可执行更复杂的分组逻辑,如广播结果回原始数据结构、填充缺失值、计算组内排名等。掌握groupby及其相关方法能显著提升数据分析效率与灵活性。

Python怎样实现数据分组统计?groupby高级用法解析

Python中实现数据分组统计,Pandas库的groupby方法无疑是核心利器。它能让你根据一个或多个列的值,将数据高效地拆分成若干组,然后对每组独立进行聚合计算,比如求和、计数、平均值等等。这就像是把一大堆散乱的数据,按照某种内在的逻辑自动分类整理好,方便我们从不同维度去洞察数据背后的规律。

Python怎样实现数据分组统计?groupby高级用法解析

解决方案

要实现数据分组统计,最直接也是最常用的方法就是利用Pandas DataFrame的groupby()方法。它通常与一个或多个聚合函数(如sum(), mean(), count(), min(), max(), std(), var(), first(), last(), nth()等)结合使用。

Python怎样实现数据分组统计?groupby高级用法解析

首先,你需要一个DataFrame:

立即学习Python免费学习笔记(深入)”;

import pandas as pd
import numpy as np

# 模拟一些销售数据
data = {
    '产品': ['A', 'B', 'A', 'C', 'B', 'A', 'C', 'B', 'A'],
    '区域': ['华东', '华北', '华东', '华南', '华北', '华中', '华南', '华中', '华东'],
    '销售额': [100, 150, 120, 80, 130, 90, 110, 160, 105],
    '销量': [10, 15, 12, 8, 13, 9, 11, 16, 10]
}
df = pd.DataFrame(data)
print("原始数据:")
print(df)
print("-" * 30)

# 1. 单列分组并求和
# 统计每个产品的总销售额
product_sales = df.groupby('产品')['销售额'].sum()
print("按产品统计总销售额:")
print(product_sales)
print("-" * 30)

# 2. 多列分组并计算平均值
# 统计每个区域、每个产品的平均销售额和平均销量
region_product_avg = df.groupby(['区域', '产品'])[['销售额', '销量']].mean()
print("按区域和产品统计平均销售额及销量:")
print(region_product_avg)
print("-" * 30)

# 3. 使用agg()进行多种聚合操作
# 统计每个区域的销售额:总和、平均值、最大值
region_agg_sales = df.groupby('区域')['销售额'].agg(['sum', 'mean', 'max'])
print("按区域统计销售额的多种指标:")
print(region_agg_sales)
print("-" * 30)

# 4. 使用agg()对不同列应用不同聚合函数
# 统计每个产品:销售额的总和,销量的平均值
product_custom_agg = df.groupby('产品').agg(
    总销售额=('销售额', 'sum'),
    平均销量=('销量', 'mean')
)
print("按产品统计销售额总和与销量平均值:")
print(product_custom_agg)
print("-" * 30)

# 5. 分组后重置索引
# 如果想把分组键也作为普通列而不是索引,可以使用reset_index()
reset_index_example = df.groupby('产品')['销售额'].sum().reset_index()
print("分组后重置索引:")
print(reset_index_example)

groupby()方法的强大之处在于它的灵活性。你可以根据业务需求,选择任意列作为分组键,然后对目标列应用各种聚合函数。我第一次接触groupby的时候,觉得它有点像Excel里的数据透视表,但又灵活得多,尤其是在处理大数据集时,那效率简直是飞跃。

Python怎样实现数据分组统计?groupby高级用法解析

理解Pandas Groupby的“三板斧”:Split-Apply-Combine

说实话,很多人用groupby只是停留在表面,知道怎么写,但不一定理解它背后的工作机制。Pandas的groupby操作,核心思想其实是“Split-Apply-Combine”(拆分-应用-合并)这个范式。理解这个,能帮你更好地优化代码,解决更复杂的问题。

  1. Split(拆分): 这是groupby的第一步。Pandas会根据你指定的分组键(一个或多个列),将原始DataFrame逻辑上拆分成多个子DataFrame。每个子DataFrame都包含一个唯一分组键对应的所有行。这个过程是内存高效的,它通常不会真的创建很多小的DataFrame副本,而是内部维护一个指向原始数据视图的索引映射。
  2. Apply(应用): 拆分完成后,Pandas会对每个独立的子DataFrame应用一个函数。这个函数可以是内置的聚合函数(如sum(), mean()),也可以是你自定义的函数。这一步是计算的核心,比如你要求每组的平均值,就是在这里对每个子组的数据进行平均值计算。
  3. Combine(合并): 最后一步是将所有子DataFrame上应用函数得到的结果,合并成一个最终的DataFrame或Series。这个合并过程会根据分组键重新构建索引,并把聚合结果呈现出来。

掌握了“Split-Apply-Combine”这个概念,你就能更好地预判groupby的行为,也能在遇到性能瓶颈时,知道从哪个环节去优化。比如,如果你的apply步骤非常耗时,那可能需要考虑用矢量化操作替代,或者寻找Pandas内置的更优解。有时候,我们可能不自觉地写出一些看似合理但效率低下的groupby操作,比如对每一组都用apply去跑一个复杂的自定义函数,这时候就得停下来想想,有没有更Pandasic的办法。

高级聚合与多层索引:解锁复杂分析场景

在实际工作中,数据分析的需求往往比简单求和复杂得多。groupby结合agg()方法,可以轻松应对多列分组和多层聚合的场景,甚至还能自定义聚合函数名,让结果更清晰。

eSiteGroup站群管理系统1.0.4
eSiteGroup站群管理系统1.0.4

eSiteGroup站群管理系统是基于eFramework低代码开发平台构建,是一款高度灵活、可扩展的智能化站群管理解决方案,全面支持SQL Server、SQLite、MySQL、Oracle等主流数据库,适配企业级高并发、轻量级本地化、云端分布式等多种部署场景。通过可视化建模与模块化设计,系统可实现多站点的快速搭建、跨平台协同管理及数据智能分析,满足政府、企业、教育机构等组织对多站点统一管控的

下载

当我们需要同时对多个列进行分组,或者对同一列进行多种聚合操作时,agg()方法就显得尤为重要了。

# 模拟更复杂的销售数据,加入日期
df_complex = pd.DataFrame({
    '日期': pd.to_datetime(['2023-01-01', '2023-01-01', '2023-01-02', '2023-01-02', '2023-01-03', '2023-01-03']),
    '产品': ['A', 'B', 'A', 'C', 'B', 'A'],
    '区域': ['华东', '华北', '华东', '华南', '华北', '华东'],
    '销售额': [100, 150, 120, 80, 130, 90],
    '成本': [50, 70, 60, 40, 65, 45]
})
print("\n复杂原始数据:")
print(df_complex)
print("-" * 30)

# 1. 多列分组,对不同列应用不同聚合函数,并自定义输出列名
# 统计每天每个区域:总销售额,平均成本,以及销售额的最高值和最低值
daily_region_stats = df_complex.groupby(['日期', '区域']).agg(
    总销售额=('销售额', 'sum'),
    平均成本=('成本', 'mean'),
    销售额最大值=('销售额', 'max'),
    销售额最小值=('销售额', 'min')
)
print("每天每区域的销售统计:")
print(daily_region_stats)
print("-" * 30)

# 2. 对同一列应用多个聚合函数,并使用多层列索引
# 统计每个产品的销售额:总和、平均值、标准差
product_multi_agg = df_complex.groupby('产品')['销售额'].agg(['sum', 'mean', 'std'])
print("每个产品的销售额多指标统计:")
print(product_multi_agg)
print("-" * 30)

# 3. 如果需要更复杂的自定义聚合,可以传入lambda函数
# 统计每个区域的销售额,并计算一个自定义的“销售额波动范围”(最大值-最小值)
region_custom_range = df_complex.groupby('区域')['销售额'].agg(
    总销售额='sum',
    销售额波动范围=lambda x: x.max() - x.min()
)
print("每个区域的销售额波动范围:")
print(region_custom_range)

通过agg(),我们可以构建出非常精细的聚合报表。我记得有次做用户行为分析,需要同时按用户ID和行为类型来统计不同时段的操作次数,groupby(['user_id', 'action_type']).count()就完美解决了,那种感觉就像是找到了数据里的“密码”。而当需要更深入的分析,比如计算每个用户每次会话的平均时长,或者特定行为的转化率时,agg配合自定义函数就显得尤为灵活了。

apply()transform():突破简单聚合的界限

groupby的强大不仅仅体现在简单的聚合上,它还提供了apply()transform()这两个高级方法,它们能让你在分组数据上执行更复杂、更灵活的操作,甚至可以将结果“广播”回原始DataFrame的形状。

  1. apply():自由度最高的“瑞士军刀”apply()方法会将每个分组作为一个独立的DataFrame(或Series)传递给你定义的函数。这意味着你可以在每个组内执行几乎任何Pandas操作,包括排序、筛选、合并、复杂的计算等等。它的返回值可以是Series、DataFrame,甚至是标量。

    # 查找每个区域销售额最高的两条记录
    def top_n_sales(group, n=2):
        return group.sort_values(by='销售额', ascending=False).head(n)
    
    top_sales_per_region = df_complex.groupby('区域').apply(top_n_sales)
    print("\n每个区域销售额最高的两条记录:")
    print(top_sales_per_region)
    print("-" * 30)

    apply也有它的“陷阱”,比如性能问题,如果你的函数能被矢量化操作替代,那最好不要用apply。它在处理大数据量时可能会比较慢,因为它需要迭代每个组并调用Python函数。

  2. transform():结果形状不变的“广播器”transform()方法也对每个分组应用一个函数,但它的关键特性是:它返回的结果必须与原始分组的形状(行数)相同,并且会自动将结果对齐回原始DataFrame的索引。这使得它非常适合用于在组内进行数据标准化、填充缺失值、计算组内排名等操作,而不会改变原始DataFrame的结构。

    # 计算每个产品的销售额占该产品总销售额的比例
    df_complex['销售额占比'] = df_complex.groupby('产品')['销售额'].transform(lambda x: x / x.sum())
    print("添加销售额占比列:")
    print(df_complex)
    print("-" * 30)
    
    # 填充每个区域的缺失销售额为该区域的平均销售额(假设有缺失值)
    df_with_nan = df_complex.copy()
    df_with_nan.loc[0, '销售额'] = np.nan
    df_with_nan.loc[4, '销售额'] = np.nan
    
    # 使用transform填充缺失值
    df_with_nan['销售额_填充'] = df_with_nan.groupby('区域')['销售额'].transform(lambda x: x.fillna(x.mean()))
    print("\n填充缺失销售额后的数据:")
    print(df_with_nan)

    transform则需要特别注意它的返回结果必须和输入组的行数一致,否则会报错。它的优点是性能通常比apply好,因为它更倾向于使用Pandas的内部优化。

掌握applytransform,意味着你不再局限于简单的聚合,可以进行更细粒度的组内操作,并将结果无缝集成回原始数据结构中。它们是处理复杂分组逻辑,尤其是需要返回与原始数据等长结果时的强大工具

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

78

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

32

2026.01.31

counta和count的区别
counta和count的区别

Count函数用于计算指定范围内数字的个数,而CountA函数用于计算指定范围内非空单元格的个数。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

203

2023.11.20

treenode的用法
treenode的用法

​在计算机编程领域,TreeNode是一种常见的数据结构,通常用于构建树形结构。在不同的编程语言中,TreeNode可能有不同的实现方式和用法,通常用于表示树的节点信息。更多关于treenode相关问题详情请看本专题下面的文章。php中文网欢迎大家前来学习。

548

2023.12.01

C++ 高效算法与数据结构
C++ 高效算法与数据结构

本专题讲解 C++ 中常用算法与数据结构的实现与优化,涵盖排序算法(快速排序、归并排序)、查找算法、图算法、动态规划、贪心算法等,并结合实际案例分析如何选择最优算法来提高程序效率。通过深入理解数据结构(链表、树、堆、哈希表等),帮助开发者提升 在复杂应用中的算法设计与性能优化能力。

30

2025.12.22

深入理解算法:高效算法与数据结构专题
深入理解算法:高效算法与数据结构专题

本专题专注于算法与数据结构的核心概念,适合想深入理解并提升编程能力的开发者。专题内容包括常见数据结构的实现与应用,如数组、链表、栈、队列、哈希表、树、图等;以及高效的排序算法、搜索算法、动态规划等经典算法。通过详细的讲解与复杂度分析,帮助开发者不仅能熟练运用这些基础知识,还能在实际编程中优化性能,提高代码的执行效率。本专题适合准备面试的开发者,也适合希望提高算法思维的编程爱好者。

44

2026.01.06

堆和栈的区别
堆和栈的区别

堆和栈的区别:1、内存分配方式不同;2、大小不同;3、数据访问方式不同;4、数据的生命周期。本专题为大家提供堆和栈的区别的相关的文章、下载、课程内容,供大家免费下载体验。

443

2023.07.18

堆和栈区别
堆和栈区别

堆(Heap)和栈(Stack)是计算机中两种常见的内存分配机制。它们在内存管理的方式、分配方式以及使用场景上有很大的区别。本文将详细介绍堆和栈的特点、区别以及各自的使用场景。php中文网给大家带来了相关的教程以及文章欢迎大家前来学习阅读。

605

2023.08.10

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

3

2026.03.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.9万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号