0

0

如何在 PySpark 中正确添加表头并写入输出文件

碧海醫心

碧海醫心

发布时间:2026-02-03 09:07:28

|

397人浏览过

|

来源于php中文网

原创

如何在 PySpark 中正确添加表头并写入输出文件

本文详解 pyspark 中创建带指定列名的 dataframe 并写入 parquet 文件的完整流程,重点解决因混用 spark sql 函数(如 `current_date()`)导致的序列化错误(picklingerror),并提供可直接运行的安全替代方案。

在使用 PySpark 构建日志类结构化数据并写入文件时,一个常见需求是:动态生成带固定表头(header)的 DataFrame,并将变量值与常量字符串组合后持久化为 Parquet 文件。但实践中,若在 createDataFrame() 的原始数据(如 log_data 元组)中直接调用 Spark 内置 SQL 函数(如 current_date()、current_timestamp()),会触发 PicklingError: Could not serialize object: TypeError: cannot pickle '_thread.RLock' object 错误——这是因为这些函数返回的是 Spark Column 对象,而非 Python 原生类型,而 createDataFrame(data, schema) 的 data 参数仅接受可序列化的 Python 原生数据(如 str, int, datetime.date, datetime.datetime 等),无法序列化 Spark 执行计划中的对象。

✅ 正确做法:所有字段值必须为 Python 原生类型。日期/时间应使用 datetime.date.today() 或 datetime.datetime.now() 生成,再转为字符串;Spark SQL 函数(如 current_date())只能用于 DataFrame 的 withColumn() 或 SQL 查询中,不可出现在 createDataFrame() 的输入数据中

以下是推荐的完整实现方案:

Glarity
Glarity

Glarity是一款免费开源的AI浏览器扩展,提供YouTube视频总结、网页摘要、写作工具等功能,支持免费的镜像翻译,电子邮件写作辅助,AI问答等功能。

下载
from pyspark.sql import SparkSession
from pyspark.sql.types import StructType, StructField, StringType
from datetime import date, datetime

# ✅ 定义列名(注意:必须与数据元组长度严格一致)
log_column_names = [
    "EXE_SRCE_TYP_CD", 
    "EXE_TGT_TYP_CD", 
    "EXE_ACT_TYP_CD", 
    "EXE_DT", 
    "EXE_TS", 
    "EXE_STAT_TYP_CD", 
    "EXE_SRCE_VALUE", 
    "ERR_DESC_TXT", 
    "FOLDER_NAME"
]
# ⚠️ 注意:原问题中 log_data 有 9 个值,但列名列表只有 8 个(少 'EXE_SRCE_VALUE'?),此处按标准 9 列对齐。
# 若实际需 10 列,请同步补全列名列表(例如增加 "DOMAIN_NAME")并确保元组元素数匹配。

# ✅ 使用 Python 原生日期/时间(可安全序列化)
processing_date = "2024-06-15"
ctlfile_data_as_of_date = "2024-06-14"
folder_name = "daily_validation"

# ✅ 构建 schema
schema = StructType([StructField(col, StringType(), True) for col in log_column_names])

# ✅ 构造数据:全部为 str 类型(日期也转为字符串)
log_data = [
    (
        "FILEA", 
        "FILEB", 
        "Date Validation between FILEA and FILEB",
        str(date.today()),                    # ✅ Python date → string
        str(datetime.now()),                  # ✅ Python datetime → string
        "Success",
        processing_date,
        "Value matched between FILEA and FILEB.",
        folder_name
    )
]

# ✅ 创建 DataFrame(安全!无序列化风险)
log_data_df = spark.createDataFrame(log_data, schema=schema)

# ✅ 写入 Parquet(注意:partitionBy 要求列名必须存在于 DataFrame 中)
# 若需按 DOMAIN_NAME / DATA_AS_OF_DATE 分区,请先用 withColumn 添加这些列:
log_data_df = log_data_df \
    .withColumn("DOMAIN_NAME", lit("DEFAULT_DOMAIN")) \
    .withColumn("DATA_AS_OF_DATE", lit(ctlfile_data_as_of_date))

log_data_df.write \
    .partitionBy("DOMAIN_NAME", "DATA_AS_OF_DATE") \
    .mode("append") \
    .parquet(py_log_file_path)

? 关键注意事项:

  • 列名与数据严格对齐:log_column_names 长度必须等于 log_data 元组中元素个数,否则抛出 IllegalArgumentException;
  • 避免 Spark 函数入参:current_date(), lit(), col() 等返回 Column 对象,不可用于 createDataFrame(data, ...) 的 data 参数
  • 分区列必须存在:partitionBy(...) 中的列必须是 DataFrame 的实际列(可通过 withColumn() 动态添加);
  • 变量作用域:确保 processing_date、folder_name 等变量在代码执行时已正确定义且非 None;
  • 生产环境建议:对关键字段(如日期)做格式校验(如 YYYY-MM-DD),避免 Parquet 分区异常。

通过以上方式,即可稳定、高效地生成带自定义表头的日志 DataFrame,并安全写入分布式存储,彻底规避序列化陷阱。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
数据分析工具有哪些
数据分析工具有哪些

数据分析工具有Excel、SQL、Python、R、Tableau、Power BI、SAS、SPSS和MATLAB等。详细介绍:1、Excel,具有强大的计算和数据处理功能;2、SQL,可以进行数据查询、过滤、排序、聚合等操作;3、Python,拥有丰富的数据分析库;4、R,拥有丰富的统计分析库和图形库;5、Tableau,提供了直观易用的用户界面等等。

792

2023.10.12

SQL中distinct的用法
SQL中distinct的用法

SQL中distinct的语法是“SELECT DISTINCT column1, column2,...,FROM table_name;”。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

330

2023.10.27

SQL中months_between使用方法
SQL中months_between使用方法

在SQL中,MONTHS_BETWEEN 是一个常见的函数,用于计算两个日期之间的月份差。想了解更多SQL的相关内容,可以阅读本专题下面的文章。

351

2024.02.23

SQL出现5120错误解决方法
SQL出现5120错误解决方法

SQL Server错误5120是由于没有足够的权限来访问或操作指定的数据库或文件引起的。想了解更多sql错误的相关内容,可以阅读本专题下面的文章。

1345

2024.03.06

sql procedure语法错误解决方法
sql procedure语法错误解决方法

sql procedure语法错误解决办法:1、仔细检查错误消息;2、检查语法规则;3、检查括号和引号;4、检查变量和参数;5、检查关键字和函数;6、逐步调试;7、参考文档和示例。想了解更多语法错误的相关内容,可以阅读本专题下面的文章。

364

2024.03.06

oracle数据库运行sql方法
oracle数据库运行sql方法

运行sql步骤包括:打开sql plus工具并连接到数据库。在提示符下输入sql语句。按enter键运行该语句。查看结果,错误消息或退出sql plus。想了解更多oracle数据库的相关内容,可以阅读本专题下面的文章。

943

2024.04.07

sql中where的含义
sql中where的含义

sql中where子句用于从表中过滤数据,它基于指定条件选择特定的行。想了解更多where的相关内容,可以阅读本专题下面的文章。

581

2024.04.29

sql中删除表的语句是什么
sql中删除表的语句是什么

sql中用于删除表的语句是drop table。语法为drop table table_name;该语句将永久删除指定表的表和数据。想了解更多sql的相关内容,可以阅读本专题下面的文章。

427

2024.04.29

AO3官网入口与中文阅读设置 AO3网页版使用与访问
AO3官网入口与中文阅读设置 AO3网页版使用与访问

本专题围绕 Archive of Our Own(AO3)官网入口展开,系统整理 AO3 最新可用官网地址、网页版访问方式、正确打开链接的方法,并详细讲解 AO3 中文界面设置、阅读语言切换及基础使用流程,帮助用户稳定访问 AO3 官网,高效完成中文阅读与作品浏览。

89

2026.02.02

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.4万人学习

Django 教程
Django 教程

共28课时 | 3.8万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.4万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号