PySpark中从现有列右侧提取可变长度字符创建新列的教程

碧海醫心
发布: 2025-12-01 12:53:40
原创
705人浏览过

PySpark中从现有列右侧提取可变长度字符创建新列的教程

本教程详细介绍了如何在pyspark dataframe中,从现有列的右侧,根据特定模式(如连字符后的数字部分)提取可变长度的字符串并创建新列。文章将重点讲解如何利用`pyspark.sql.functions.regexp_extract`函数结合正则表达式,高效且灵活地实现这一数据处理需求,并提供详细的代码示例与注意事项。

PySpark中基于模式提取可变长度字符串并创建新列

在数据处理和分析中,我们经常需要从现有的字符串列中提取特定部分来生成新的特征列。当需要提取的部分长度不固定,且其位置由某种模式(例如,分隔符后的内容)决定时,常规的固定长度截取方法往往力不从心。本文将介绍在PySpark环境中,如何利用强大的正则表达式功能,结合regexp_extract函数,优雅地解决这一挑战。

场景描述

假设我们有一个PySpark DataFrame,其中包含一个名为Product的列。该列的字符串格式为“产品名称 - 数字编码”,其中产品名称和数字编码的长度都是可变的,且可能包含多个连字符,但我们总是希望提取最后一个连字符后的纯数字部分作为新的UPC列。

原始数据示例:

Product Name
abcd - 12 abcd
xyz - 123543 xyz
xyz - abc - 123456 xyz - abc

期望输出示例:

Product UPC
abcd - 12 12
xyz - 123543 123543
xyz - abc - 123456 123456

传统方法面临的挑战

一些用户可能会尝试使用length、locate和substring等函数来计算连字符的位置和字符串长度,进而截取所需部分。例如:

# 尝试使用 substring 组合函数 (可能导致复杂性和错误)
# df4 = df3.withColumn("LastHyphen", length(col("PRODUCT")) - locate('-', reverse(col("PRODUCT"))))
# df4 = df4.withColumn("ProductLength", length(col("PRODUCT")))
# df4 = df4.withColumn("UPC", substring("PRODUCT", df4.LastHyphen, df4.ProductLength - df4.LastHyphen))
# 这种方法在处理列类型参数时可能遇到 'Column is not iterable' 等类型错误,
# 且逻辑复杂,难以应对更复杂的模式匹配。
登录后复制

这种方法不仅实现起来较为繁琐,需要多步计算,而且在处理动态计算的列作为substring函数的参数时,可能会遇到类型不匹配或迭代器相关的错误。更重要的是,它对模式的适应性较差,一旦模式稍有变化,就需要大幅修改逻辑。

解决方案:使用 regexp_extract

PySpark提供了pyspark.sql.functions.regexp_extract函数,它允许我们使用正则表达式从字符串中提取匹配特定模式的部分。这对于处理可变长度、基于模式的字符串提取任务非常高效和灵活。

regexp_extract函数的语法为:regexp_extract(col, pattern, idx)。

Cowriter
Cowriter

AI 作家,帮助加速和激发你的创意写作

Cowriter 107
查看详情 Cowriter
  • col: 要操作的字符串列。
  • pattern: 用于匹配的正则表达式字符串。
  • idx: 如果正则表达式包含捕获组(用括号()定义),则此参数指定要提取哪个捕获组的内容。0表示提取整个匹配项,1表示提取第一个捕获组,依此类推。

示例代码

首先,我们创建一个示例DataFrame:

from pyspark.sql import SparkSession
from pyspark.sql import Row
from pyspark.sql.functions import col, regexp_extract

# 初始化SparkSession
spark = SparkSession.builder.appName("ExtractVariableLengthSubstring").getOrCreate()

# 创建示例数据
data = [
    Row(product="abcd - 12", name="abcd"),
    Row(product="xyz - 123543", name="xyz"),
    Row(product="xyz - abc - 123456", name="xyz - abc"),
    Row(product="no hyphen product", name="no hyphen"), # 演示无匹配情况
    Row(product="product - only text", name="text after hyphen") # 演示非数字情况
]
df = spark.createDataFrame(data)

print("原始DataFrame:")
df.show()
登录后复制

输出:

原始DataFrame:
+-------------------+-----------------+
|            product|             name|
+-------------------+-----------------+
|          abcd - 12|             abcd|
|       xyz - 123543|              xyz|
| xyz - abc - 123456|        xyz - abc|
|  no hyphen product|        no hyphen|
|product - only text|text after hyphen|
+-------------------+-----------------+
登录后复制

接下来,我们应用regexp_extract来提取UPC:

# 定义正则表达式
# ".* - ([0-9]{1,})" 的解释:
# .*        : 匹配任意字符(除了换行符)零次或多次。这会贪婪地匹配到最后一个 " - " 之前的所有内容。
#  -        : 匹配字面量 " - "(一个空格,一个连字符,一个空格)。
# ([0-9]{1,}): 这是一个捕获组。
#   [0-9]   : 匹配任何数字 (0-9)。
#   {1,}    : 匹配前面的元素(即数字)一次或多次。
#            因此,这个捕获组会匹配最后一个 " - " 之后的一个或多个数字。
# 我们需要提取第一个捕获组的内容,所以 idx 为 1。
upc_pattern = r".* - ([0-9]{1,})"

# 使用 withColumn 和 regexp_extract 创建新列
df_with_upc = df.withColumn("UPC", regexp_extract(col("product"), upc_pattern, 1))

print("提取UPC后的DataFrame:")
df_with_upc.show()

# 停止SparkSession
spark.stop()
登录后复制

输出:

提取UPC后的DataFrame:
+-------------------+-----------------+------+
|            product|             name|   UPC|
+-------------------+-----------------+------+
|          abcd - 12|             abcd|    12|
|       xyz - 123543|              xyz|123543|
| xyz - abc - 123456|        xyz - abc|123456|
|  no hyphen product|        no hyphen|      |
|product - only text|text after hyphen|      |
+-------------------+-----------------+------+
登录后复制

从结果可以看出,对于不符合模式的行(如no hyphen product和product - only text),regexp_extract会返回一个空字符串,这是其默认行为。

注意事项

  1. 正则表达式的精准性:正则表达式是解决此类问题的核心。一个设计良好的正则表达式能够准确捕获目标数据,同时避免意外匹配。.*是贪婪匹配,它会尽可能多地匹配字符,这在这里确保我们匹配到的是最后一个连字符。
  2. 捕获组索引:确保regexp_extract的第三个参数idx正确指向你希望提取的捕获组。0代表整个匹配项,1代表第一个捕获组。
  3. 模式不匹配的处理:当源字符串不符合正则表达式模式时,regexp_extract将返回一个空字符串。在实际应用中,你可能需要进一步处理这些空值,例如使用when和otherwise函数进行条件赋值,或者进行数据清洗
  4. 性能考量:正则表达式匹配通常比简单的字符串操作(如substring、split)计算成本更高。对于大规模数据集,如果性能成为瓶颈,应评估其影响。然而,对于大多数模式匹配和提取任务,regexp_extract通常是效率和灵活性的最佳平衡点。
  5. 转义字符:在Python字符串中定义正则表达式时,使用原始字符串(前缀r,例如r"pattern")可以避免反斜杠\的二次转义问题。

总结

在PySpark中,当需要从字符串列中提取可变长度、基于复杂模式的子字符串时,pyspark.sql.functions.regexp_extract函数结合正则表达式是功能强大且高效的首选方案。它不仅简化了代码逻辑,提高了可读性,而且能够灵活应对各种复杂的字符串解析需求。通过精确构建正则表达式,我们可以轻松地从非结构化或半结构化的文本数据中提取出有价值的信息,为后续的数据分析和建模奠定基础。

以上就是PySpark中从现有列右侧提取可变长度字符创建新列的教程的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号