0

0

python pandas如何合并两个dataframe_pandas merge与concat合并数据框方法

下次还敢

下次还敢

发布时间:2025-09-12 15:29:01

|

753人浏览过

|

来源于php中文网

原创

pandas中merge用于基于键的关系型连接,如SQL的JOIN,适合通过共同列或索引关联数据;concat则用于沿轴堆叠DataFrame,类似UNION ALL,适用于简单拼接。选择merge当需根据逻辑关系(如客户ID)整合数据,选择concat当需直接堆叠行或列。其他方法如join、combine_first等在特定场景下补充使用。

python pandas如何合并两个dataframe_pandas merge与concat合并数据框方法

在Pandas中,合并两个DataFrame主要通过

merge
concat
两个核心函数实现。简单来说,
merge
更侧重于基于一个或多个共同的键(列或索引)进行“关系型”连接,类似于SQL中的JOIN操作,它关注的是数据之间的逻辑关联。而
concat
则更倾向于“堆叠”或“拼接”,它按照指定的轴(行或列)将多个DataFrame简单地堆叠在一起,更像是SQL中的UNION ALL。选择哪个取决于你的数据如何关联以及你希望达到的合并效果。

解决方案

pandas.merge
用于基于共同的列或索引来合并DataFrame。它在功能上与数据库的JOIN操作非常相似,可以处理一对一、一对多、多对多的关系。

import pandas as pd

# 示例数据
df1 = pd.DataFrame({
    'id': [1, 2, 3, 4],
    'name': ['Alice', 'Bob', 'Charlie', 'David'],
    'city': ['NY', 'LA', 'SF', 'NY']
})

df2 = pd.DataFrame({
    'id': [1, 2, 5, 3],
    'salary': [70000, 80000, 90000, 75000],
    'department': ['HR', 'IT', 'Finance', 'HR']
})

# 内连接 (inner merge): 仅保留两个DataFrame中'id'列都有的行
merged_df_inner = pd.merge(df1, df2, on='id', how='inner')
# print("内连接结果:\n", merged_df_inner)

# 左连接 (left merge): 保留左DataFrame的所有行,匹配右DataFrame的行;右DataFrame不匹配的用NaN填充
merged_df_left = pd.merge(df1, df2, on='id', how='left')
# print("\n左连接结果:\n", merged_df_left)

# 右连接 (right merge): 保留右DataFrame的所有行,匹配左DataFrame的行;左DataFrame不匹配的用NaN填充
merged_df_right = pd.merge(df1, df2, on='id', how='right')
# print("\n右连接结果:\n", merged_df_right)

# 外连接 (outer merge): 保留两个DataFrame的所有行,不匹配的用NaN填充
merged_df_outer = pd.merge(df1, df2, on='id', how='outer')
# print("\n外连接结果:\n", merged_df_outer)

# 基于多个键合并
df3 = pd.DataFrame({
    'first_name': ['Alice', 'Bob'],
    'last_name': ['Smith', 'Johnson'],
    'age': [30, 24]
})

df4 = pd.DataFrame({
    'first_name': ['Alice', 'Bob'],
    'last_name': ['Smith', 'Johnson'],
    'occupation': ['Engineer', 'Designer']
})

merged_multi_key = pd.merge(df3, df4, on=['first_name', 'last_name'])
# print("\n多键合并结果:\n", merged_multi_key)

# 基于索引合并
df5 = pd.DataFrame({'value1': [10, 20]}, index=['A', 'B'])
df6 = pd.DataFrame({'value2': [30, 40]}, index=['B', 'C'])
merged_on_index = pd.merge(df5, df6, left_index=True, right_index=True, how='outer')
# print("\n基于索引合并结果:\n", merged_on_index)

pandas.concat
用于将多个DataFrame或Series沿一个轴(行或列)进行拼接。它更像是一个“堆叠”操作,而不是基于键的匹配。

立即学习Python免费学习笔记(深入)”;

import pandas as pd

# 示例数据
df_a = pd.DataFrame({
    'col1': [1, 2],
    'col2': ['A', 'B']
})

df_b = pd.DataFrame({
    'col1': [3, 4],
    'col2': ['C', 'D']
})

df_c = pd.DataFrame({
    'col3': [5, 6],
    'col4': ['E', 'F']
})

# 沿行方向拼接 (axis=0, 默认行为)
concatenated_rows = pd.concat([df_a, df_b])
# print("沿行方向拼接结果:\n", concatenated_rows)

# 沿行方向拼接并重置索引
concatenated_rows_reset_index = pd.concat([df_a, df_b], ignore_index=True)
# print("\n沿行方向拼接并重置索引结果:\n", concatenated_rows_reset_index)

# 沿列方向拼接 (axis=1)
concatenated_cols = pd.concat([df_a, df_c], axis=1)
# print("\n沿列方向拼接结果:\n", concatenated_cols)

# 沿列方向拼接,即使索引不完全匹配
df_d = pd.DataFrame({'col_x': [10, 20]}, index=[0, 2])
df_e = pd.DataFrame({'col_y': [30, 40]}, index=[0, 1])
concatenated_cols_mismatch_index = pd.concat([df_d, df_e], axis=1)
# print("\n沿列方向拼接,索引不匹配:\n", concatenated_cols_mismatch_index)

# 使用keys参数为每个DataFrame添加一个层级索引
concatenated_with_keys = pd.concat([df_a, df_b], keys=['group_a', 'group_b'])
# print("\n使用keys参数拼接结果:\n", concatenated_with_keys)

在什么场景下,我应该选择使用
pandas.merge
而非
concat

这是一个非常关键的问题,因为选择错误可能会导致数据分析结果出现偏差。从我的经验来看,当你需要基于数据之间的“逻辑关系”来组合它们时,

merge
是首选。想象一下你有两张表,一张是客户的基本信息(ID、姓名、地址),另一张是客户的订单记录(订单ID、客户ID、商品、金额)。这两张表通过“客户ID”这个共同的字段关联起来。你想知道每个客户都买了什么,或者每个订单是哪个客户下的,这时候就应该使用
merge

merge
的核心在于它的“连接键”(
on
参数指定列,或
left_index
/
right_index
指定索引)。它会寻找两个DataFrame中连接键值相同的行,然后将它们组合成一行。这种基于键的匹配是关系型数据库操作的基石,它允许你根据预定义的规则(如
how
参数:
inner
,
left
,
right
,
outer
)来决定哪些匹配或不匹配的行应该被保留。

例如,如果你想:

  • 关联不同来源的相同实体信息:比如一个部门员工的基础信息表和另一个记录他们绩效考核的表,通过员工ID进行关联。
  • 整合分层数据:像上面提到的客户信息和订单信息,或者产品信息和销售数据。
  • 进行查找或筛选:你可能想找出所有在特定城市居住的员工的薪资,这需要将员工信息和薪资信息通过某种键连接起来。

总的来说,当你的数据结构是“宽”的,并且你希望通过一个或多个共同的标识符来扩展或聚合现有数据时,

merge
就是你的利器。它能帮你处理一对一、一对多,甚至多对多的复杂关系,让数据保持其原有的逻辑完整性。而
concat
在这种情况下就显得力不从心,它只会简单地堆叠,不会去理解数据行之间的内在联系。

pandas.concat
在处理多张表数据时有哪些常见陷阱和最佳实践?

concat
虽然直观,但在实际使用中也常会遇到一些小麻烦。我见过不少人因为不注意这些细节,导致数据混乱或者分析结果出错。

PathFinder
PathFinder

AI驱动的销售漏斗分析工具

下载

常见陷阱:

  1. 索引混乱: 默认情况下,
    concat
    会保留原始DataFrame的索引。如果你沿行方向(
    axis=0
    )拼接多个DataFrame,并且它们的索引有重叠或者不是唯一的,那么结果DataFrame的索引也会有重复值。这在后续的数据查询和操作中可能造成混淆。比如,你可能有两个DataFrame都包含索引
    0, 1, 2
    ,拼接后会有两组
    0, 1, 2
    ,这通常不是你想要的。
  2. 列名不匹配: 当你沿行方向拼接时,如果参与拼接的DataFrame列名不完全一致,
    concat
    会默认进行外连接(
    outer
    ),即保留所有DataFrame中出现过的列,不匹配的行用
    NaN
    填充。这可能导致结果DataFrame出现大量空值,或者意外地增加了你并不关心的列。反之,如果你希望只保留所有DataFrame都有的列,你需要明确指定
    join='inner'
  3. 数据类型不一致: 如果不同DataFrame中相同列的数据类型不一致(例如,一个DataFrame的某列是整数,另一个是字符串),
    concat
    会尝试寻找一个兼容的通用数据类型。这通常会导致数字列被转换为对象类型(字符串),从而影响后续的数值计算。
  4. 顺序依赖:
    concat
    是按照你传入的DataFrame列表的顺序进行拼接的。如果顺序很重要,你需要确保列表中的DataFrame排列正确。

最佳实践:

  1. 重置索引 (
    ignore_index=True
    ):
    如果你只是想简单地将数据堆叠起来,并且不关心原始索引的含义,那么在
    concat
    时设置
    ignore_index=True
    是一个非常好的习惯。它会生成一个全新的、从0开始的连续整数索引,避免了索引重复的问题。
    # 避免索引重复的最佳实践
    df_combined = pd.concat([df_a, df_b], ignore_index=True)
  2. 明确指定连接方式 (
    join='inner'
    ):
    当沿行方向拼接时,如果只关心所有DataFrame都存在的列,可以设置
    join='inner'
    来避免引入不必要的
    NaN
    列。
    # 只保留共同列的最佳实践
    df_combined_inner_cols = pd.concat([df_a, df_with_different_cols], join='inner')
  3. 使用
    keys
    参数添加层级索引:
    如果你想保留每个原始DataFrame的来源信息,
    keys
    参数非常有用。它会在结果DataFrame中创建一个新的外层索引,清晰地标示出每行数据来自哪个原始DataFrame。这对于追溯数据来源或者进行分组分析非常有帮助。
    # 保留来源信息的最佳实践
    df_with_source_info = pd.concat([df_a, df_b], keys=['source_A', 'source_B'])
    # df_with_source_info.loc['source_A'] 可以访问来自df_a的数据
  4. 预处理数据类型:
    concat
    之前,检查并统一所有DataFrame中相同列的数据类型。可以使用
    .astype()
    方法进行转换,确保数据类型的一致性,避免不必要的类型提升。
  5. 处理列名不一致: 如果列名不一致是由于拼写错误或命名规范不同造成的,最好在
    concat
    之前进行列名重命名,确保数据的整洁性。

除了
merge
concat
,还有哪些Pandas方法可以实现数据框的连接或组合?

当然,Pandas提供了不止

merge
concat
来处理数据框的连接与组合,虽然这两个是最常用且功能最强大的。其他一些方法在特定场景下也很有用,或者提供了更简洁的语法糖。

  1. .join()
    方法:
    DataFrame.join()
    merge
    的一个语法糖,专门用于基于索引或指定列进行连接。它的主要特点是默认使用左连接(
    how='left'
    ),并且通常更方便用于基于索引的连接。如果两个DataFrame都有相同的索引,或者一个DataFrame的索引与另一个DataFrame的某个列匹配,
    join
    就显得非常简洁。

    df_left = pd.DataFrame({'value_a': [1, 2]}, index=['A', 'B'])
    df_right = pd.DataFrame({'value_b': [3, 4]}, index=['B', 'C'])
    joined_df = df_left.join(df_right, how='outer') # 默认是left,这里演示outer
    # print(joined_df)

    它在内部其实还是调用了

    merge
    ,但对于索引连接的场景,我个人觉得
    join
    的写法更直观。

  2. .append()
    方法(已弃用,推荐使用
    concat
    ):
    在旧版本的Pandas中,
    DataFrame.append()
    方法曾被广泛用于将一个DataFrame的行添加到另一个DataFrame的末尾。它的功能与
    pd.concat([df1, df2], axis=0)
    非常相似,但一次只能操作两个DataFrame。

    # df_a.append(df_b, ignore_index=True) # 旧用法,现在会发出警告
    # 推荐使用:
    # pd.concat([df_a, df_b], ignore_index=True)

    从Pandas 1.4版本开始,

    append()
    方法已经被弃用,官方推荐使用
    pd.concat()
    来替代它,因为
    concat
    功能更强大,性能也更好,并且能同时处理多个DataFrame。

  3. .combine()
    .combine_first()
    方法:
    这两个方法用于按元素级别组合两个DataFrame。它们不是进行关系型连接,而是当两个DataFrame在相同位置有数据时,如何选择值。

    • .combine()
      接受一个函数作为参数,该函数决定如何组合两个DataFrame中相同位置的非NaN值。
      df_x = pd.DataFrame({'A': [1, 2], 'B': [3, 4]})
      df_y = pd.DataFrame({'A': [5, 6], 'B': [7, 8]})
      combined_max = df_x.combine(df_y, lambda s1, s2: s1 if s1 > s2 else s2)
      # print(combined_max) # 会在每个位置选择较大的值
    • .combine_first()
      用另一个DataFrame中的非NaN值填充当前DataFrame中的NaN值。这在处理缺失数据时非常有用,比如你想用一个备用数据源来填充主数据源中的空缺。
      df_main = pd.DataFrame({'A': [1, np.nan], 'B': [3, 4]})
      df_backup = pd.DataFrame({'A': [5, 6], 'B': [7, np.nan]})
      filled_df = df_main.combine_first(df_backup)
      # print(filled_df) # df_main中的NaN会被df_backup的对应值填充

      这两个方法更侧重于数据的“填充”或“合并策略”,而不是基于键的结构化连接。它们在数据清洗和预处理阶段能发挥独特的作用。

选择哪种方法,归根结底还是要看你数据的结构、你希望达到的结果,以及你对性能和代码可读性的考量。熟练掌握这些工具,能让你在数据处理的道路上更加游刃有余。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
数据分析工具有哪些
数据分析工具有哪些

数据分析工具有Excel、SQL、Python、R、Tableau、Power BI、SAS、SPSS和MATLAB等。详细介绍:1、Excel,具有强大的计算和数据处理功能;2、SQL,可以进行数据查询、过滤、排序、聚合等操作;3、Python,拥有丰富的数据分析库;4、R,拥有丰富的统计分析库和图形库;5、Tableau,提供了直观易用的用户界面等等。

1134

2023.10.12

SQL中distinct的用法
SQL中distinct的用法

SQL中distinct的语法是“SELECT DISTINCT column1, column2,...,FROM table_name;”。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

340

2023.10.27

SQL中months_between使用方法
SQL中months_between使用方法

在SQL中,MONTHS_BETWEEN 是一个常见的函数,用于计算两个日期之间的月份差。想了解更多SQL的相关内容,可以阅读本专题下面的文章。

381

2024.02.23

SQL出现5120错误解决方法
SQL出现5120错误解决方法

SQL Server错误5120是由于没有足够的权限来访问或操作指定的数据库或文件引起的。想了解更多sql错误的相关内容,可以阅读本专题下面的文章。

2174

2024.03.06

sql procedure语法错误解决方法
sql procedure语法错误解决方法

sql procedure语法错误解决办法:1、仔细检查错误消息;2、检查语法规则;3、检查括号和引号;4、检查变量和参数;5、检查关键字和函数;6、逐步调试;7、参考文档和示例。想了解更多语法错误的相关内容,可以阅读本专题下面的文章。

380

2024.03.06

oracle数据库运行sql方法
oracle数据库运行sql方法

运行sql步骤包括:打开sql plus工具并连接到数据库。在提示符下输入sql语句。按enter键运行该语句。查看结果,错误消息或退出sql plus。想了解更多oracle数据库的相关内容,可以阅读本专题下面的文章。

1703

2024.04.07

sql中where的含义
sql中where的含义

sql中where子句用于从表中过滤数据,它基于指定条件选择特定的行。想了解更多where的相关内容,可以阅读本专题下面的文章。

586

2024.04.29

sql中删除表的语句是什么
sql中删除表的语句是什么

sql中用于删除表的语句是drop table。语法为drop table table_name;该语句将永久删除指定表的表和数据。想了解更多sql的相关内容,可以阅读本专题下面的文章。

440

2024.04.29

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

37

2026.03.12

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号