0

0

基于Pandas实现DataFrame成对行匹配与结果标记

DDD

DDD

发布时间:2025-10-25 12:12:00

|

457人浏览过

|

来源于php中文网

原创

基于Pandas实现DataFrame成对行匹配与结果标记

本文详细介绍了如何使用pandas库对dataframe中成对出现的源数据(source)和目标数据(target)进行多列匹配,并根据匹配结果在源数据行中添加“pass”或“fail”标记。教程涵盖了数据准备、成对数据对齐、多列比较逻辑实现以及结果整合与列顺序调整等关键步骤,旨在提供一个清晰、高效的解决方案。

问题阐述:DataFrame成对行数据匹配与结果标记

在数据处理和分析中,我们经常会遇到需要比较DataFrame中成对行数据的情况。例如,一个DataFrame可能包含一系列“源数据”(Source)行及其对应的“目标数据”(Target)行。我们的任务是根据这些成对行中特定列的值是否完全匹配,为每一对的“源数据”行添加一个“Result”标记,指示该对数据是“Pass”(匹配)还是“Fail”(不匹配)。

考虑以下示例数据结构:

Obs Dataset Col1 Col2 Col3
1 Source A 10 X
2 Target A 10 X
3 Source B 20 Y
4 Target B 20 Y
5 Source C 30 Z
6 Target D 30 Z

我们期望的输出结果是:

Obs Dataset Result Col1 Col2 Col3
1 Source Pass A 10 X
2 Target A 10 X
3 Source Pass B 20 Y
4 Target B 20 Y
5 Source Fail C 30 Z
6 Target D 30 Z

注意,Result列只在Dataset为Source的行中显示结果,且其位置在Dataset列之后。

核心策略:基于索引的成对比较

解决这类问题的核心在于如何有效地将“源数据”行与其对应的“目标数据”行进行配对,并执行多列比较。由于示例数据中“Source”和“Target”行是交替出现的,我们可以利用这一点,通过索引操作将它们逻辑上对齐,然后进行向量化比较。

具体步骤如下:

  1. 数据准备:创建或加载原始DataFrame。
  2. 分离与对齐:将DataFrame拆分为“Source”行和“Target”行,并通过调整索引将它们按对对齐。
  3. 执行比较:对齐后的“Source”和“Target”数据进行指定列的逐一比较,判断是否所有列都匹配。
  4. 标记结果:根据比较结果,在原始DataFrame的“Source”行中更新“Result”列。
  5. 调整列顺序:将“Result”列移动到期望的位置。

实现步骤

我们将通过Python和Pandas库逐步实现上述策略。

阿里云AI平台
阿里云AI平台

阿里云AI平台

下载

步骤一:准备示例数据

首先,我们创建上述示例DataFrame:

import pandas as pd

data = {
    'Obs': [1, 2, 3, 4, 5, 6],
    'Dataset': ['Source', 'Target', 'Source', 'Target', 'Source', 'Target'],
    'Col1': ['A', 'A', 'B', 'B', 'C', 'D'],
    'Col2': [10, 10, 20, 20, 30, 30],
    'Col3': ['X', 'X', 'Y', 'Y', 'Z', 'Z']
}
df = pd.DataFrame(data)

print("原始DataFrame:")
print(df)

步骤二:分离与对齐源数据和目标数据

我们将原始DataFrame分为source_df和target_df。为了将它们对齐,我们利用Obs列的规律(Source行通常是奇数Obs,Target行是偶数Obs,且它们成对出现),通过对原始索引进行整数除法,创建一个逻辑上的“对ID”,然后基于这个“对ID”进行合并。

# 初始化'Result'列
df['Result'] = ''

# 分离Source和Target行
source_rows = df[df['Dataset'] == 'Source'].copy()
target_rows = df[df['Dataset'] == 'Target'].copy()

# 为Source和Target行创建临时的“对ID”,用于对齐
# 假设Source行索引为0, 2, 4...,Target行索引为1, 3, 5...
# 那么 (原始索引 // 2) 可以将每对Source/Target映射到同一个ID
source_rows['pair_id'] = source_rows.index // 2
target_rows['pair_id'] = target_rows.index // 2

# 基于pair_id合并Source和Target行,以便进行横向比较
# 这里使用 suffixes 来区分合并后的列名
merged_pairs = pd.merge(source_rows, target_rows, on='pair_id', suffixes=('_Source', '_Target'))

print("\n合并后的成对数据(用于比较):")
print(merged_pairs)

步骤三:执行多列匹配判断

现在merged_pairsDataFrame中,每一行代表一对Source/Target数据。我们可以定义需要比较的列,然后逐一比较这些列,判断是否所有列都匹配。

# 定义需要比较的列
comparison_cols = ['Col1', 'Col2', 'Col3']

# 检查所有比较列是否都匹配
# (merged_pairs[[f'{col}_Source' for col in comparison_cols]].values == ...).all(axis=1)
# 这一步将生成一个布尔Series,指示每对数据是否完全匹配
all_cols_match = (merged_pairs[[f'{col}_Source' for col in comparison_cols]].values ==
                  merged_pairs[[f'{col}_Target' for col in comparison_cols]].values).all(axis=1)

print("\n每对数据是否完全匹配(布尔序列):")
print(all_cols_match)

步骤四:标记结果并更新原始DataFrame

根据上一步得到的布尔序列,我们可以生成“Pass”或“Fail”的标记,并将其更新到原始DataFrame的Result列中。由于Result只在Source行显示,我们需要将结果映射回Source行的原始索引。

# 创建一个结果Series,索引对应原始DataFrame中的Source行
# merged_pairs的索引与source_rows的pair_id一致,我们需要将其转换回原始的df索引
source_original_indices = source_rows.index.values # 获取原始Source行的索引
results_series = pd.Series(
    ['Pass' if match else 'Fail' for match in all_cols_match],
    index=source_original_indices
)

# 更新原始DataFrame的'Result'列
df.loc[results_series.index, 'Result'] = results_series.values

print("\n更新Result列后的DataFrame:")
print(df)

步骤五:调整列顺序以符合输出要求

最后,为了使Result列位于Dataset列之后,我们需要重新排列DataFrame的列。

# 获取当前列的顺序
cols = df.columns.tolist()

# 找到'Result'和'Dataset'列的索引
result_col_index = cols.index('Result')
dataset_col_index = cols.index('Dataset')

# 将'Result'列从当前位置移除
result_col = cols.pop(result_col_index)

# 将'Result'列插入到'Dataset'列之后
cols.insert(dataset_col_index + 1, result_col)

# 应用新的列顺序
df = df[cols]

print("\n最终结果DataFrame:")
print(df)

完整示例代码

将上述所有步骤整合,得到一个完整的解决方案:

import pandas as pd

def determine_matching_pairs(df: pd.DataFrame, comparison_cols: list) -> pd.DataFrame:
    """
    根据成对的Source/Target行,比较指定列是否匹配,并标记结果。

    Args:
        df (pd.DataFrame): 包含Source和Target行的原始DataFrame。
                           假定Source和Target行交替出现。
        comparison_cols (list): 用于比较的列名列表。

    Returns:
        pd.DataFrame: 包含'Result'列(Pass/Fail)的更新后的DataFrame。
    """
    # 复制DataFrame以避免修改原始数据
    df_processed = df.copy()

    # 初始化'Result'列
    df_processed['Result'] = ''

    # 分离Source和Target行
    source_rows = df_processed[df_processed['Dataset'] == 'Source'].copy()
    target_rows = df_processed[df_processed['Dataset'] == 'Target'].copy()

    # 为Source和Target行创建临时的“对ID”,用于对齐
    source_rows['pair_id'] = source_rows.index // 2
    target_rows['pair_id'] = target_rows.index // 2

    # 基于pair_id合并Source和Target行,以便进行横向比较
    merged_pairs = pd.merge(source_rows, target_rows, on='pair_id', suffixes=('_Source', '_Target'))

    # 检查所有比较列是否都匹配
    # (merged_pairs[[f'{col}_Source' for col in comparison_cols]].values == ...)
    # .all(axis=1) 确保所有比较列在同一行都匹配
    all_cols_match = (merged_pairs[[f'{col}_Source' for col in comparison_cols]].values ==
                      merged_pairs[[f'{col}_Target' for col in comparison_cols]].values).all(axis=1)

    # 创建一个结果Series,索引对应原始DataFrame中的Source行
    source_original_indices = source_rows.index.values
    results_series = pd.Series(
        ['Pass' if match

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

81

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

34

2026.01.31

treenode的用法
treenode的用法

​在计算机编程领域,TreeNode是一种常见的数据结构,通常用于构建树形结构。在不同的编程语言中,TreeNode可能有不同的实现方式和用法,通常用于表示树的节点信息。更多关于treenode相关问题详情请看本专题下面的文章。php中文网欢迎大家前来学习。

550

2023.12.01

C++ 高效算法与数据结构
C++ 高效算法与数据结构

本专题讲解 C++ 中常用算法与数据结构的实现与优化,涵盖排序算法(快速排序、归并排序)、查找算法、图算法、动态规划、贪心算法等,并结合实际案例分析如何选择最优算法来提高程序效率。通过深入理解数据结构(链表、树、堆、哈希表等),帮助开发者提升 在复杂应用中的算法设计与性能优化能力。

30

2025.12.22

深入理解算法:高效算法与数据结构专题
深入理解算法:高效算法与数据结构专题

本专题专注于算法与数据结构的核心概念,适合想深入理解并提升编程能力的开发者。专题内容包括常见数据结构的实现与应用,如数组、链表、栈、队列、哈希表、树、图等;以及高效的排序算法、搜索算法、动态规划等经典算法。通过详细的讲解与复杂度分析,帮助开发者不仅能熟练运用这些基础知识,还能在实际编程中优化性能,提高代码的执行效率。本专题适合准备面试的开发者,也适合希望提高算法思维的编程爱好者。

45

2026.01.06

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

25

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

44

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

174

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

50

2026.03.10

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号