0

0

PySpark 中实现累积递归计算(如复利式列更新)

心靈之曲

心靈之曲

发布时间:2026-01-21 15:45:10

|

731人浏览过

|

来源于php中文网

原创

PySpark 中实现累积递归计算(如复利式列更新)

本文介绍如何在 pyspark 中高效实现基于前一行结果的累积递归计算(如 aₙ = aₙ₋₁ × (1 + bₙ₋₁/100)),避开低效的逐行处理,利用 udf + 序号映射 + 预加载系数列表完成向量化模拟递归。

在 PySpark 中直接实现“依赖上一行输出”的累积逻辑(如复利更新、滚动衰减等)是一个经典难点:lag() 仅支持单步偏移,无法表达 A[i] = A[i-1] * (1 + B[i-1]/100) 这类链式依赖;而 foreach() 或 toPandas() 等逐行/本地处理方式在大数据量下极易 OOM 或超时。

核心思路是「解耦递归」:将递归公式 Aₙ = A₀ × ∏ᵢ₌₀ⁿ⁻¹ (1 + Bᵢ/100) 显式展开为累乘形式。只要能按顺序获取 B 列全部值,并为每行分配其对应乘积长度 n(即从第 0 行到当前行前的所有 B 元素索引),即可通过 Python 函数预计算每个 n 对应的 Aₙ。

以下是完整可运行的解决方案:

from pyspark.sql import Window
from pyspark.sql.functions import col, udf, row_number, lit
from pyspark.sql.types import FloatType
from functools import reduce

# 假设原始 DataFrame 名为 df,含列 "A" 和 "B"
# Step 1: 提取 B 列为 Python 列表(注意:仅适用于中等规模数据;超大表需改用广播变量+分段处理)
B_list = df.select("B").rdd.map(lambda r: float(r.B)).collect()

# Step 2: 定义高效累乘 UDF(避免递归调用栈,使用迭代+缓存中间结果更稳定)
def compute_cumulative_a(a0, n):
    if n < 0:
        return float(a0)
    result = float(a0)
    for i in range(n):  # 计算 A0 → A1 → ... → An,共 n 次乘法
        if i < len(B_list):
            result *= (1 + B_list[i] / 100.0)
        else:
            break
    return result

compute_udf = udf(compute_cumulative_a, FloatType())

# Step 3: 构建有序序号列(关键!确保 B_list 索引与行顺序严格一致)
window_spec = Window.orderBy("A")  # 若原始顺序重要,请改用带时间戳/ID的稳定排序字段
df_with_index = df.withColumn("row_idx", row_number().over(window_spec) - lit(1))

# Step 4: 应用 UDF,将每行的 row_idx 作为 n,计算对应 A_n
result_df = df_with_index.withColumn(
    "A_updated",
    compute_udf(col("A"), col("row_idx"))
).drop("row_idx")

result_df.select("A_updated", "B").show(truncate=False)

输出示例

酷兔AI论文
酷兔AI论文

专业原创高质量、低查重,免费论文大纲,在线AI生成原创论文,AI辅助生成论文的神器!

下载
+---------+-----+
|A_updated|  B  |
+---------+-----+
|   3740.0|-15.0|
|   3179.0| -5.0|
| 3020.05 | -10.0|
+---------+-----+

⚠️ 重要注意事项

  • 顺序一致性:Window.orderBy(...) 必须保证与 B_list 的提取顺序完全一致(推荐使用唯一递增 ID 或时间戳列排序,避免 ORDER BY A 因值重复导致不确定排序);
  • 数据规模限制:collect() 将 B 加载至 Driver 内存,仅适用于 B 列百万级以内。若 B 超大,应改用 broadcast(B_list) + UDF 中访问广播变量,或采用近似方案(如分桶后组内递归);
  • 数值稳定性:长期链式乘法可能引发浮点误差累积,生产环境建议使用 decimal 类型(需自定义 UDF 返回 DecimalType 并配合 pyspark.sql.types.DecimalType(18,6));
  • 初始值灵活性:当前以首行 A[0] 为 A₀;若需固定初始值(如 A₀ = 3740 不随数据变化),可将 col("A") 替换为 lit(3740.0)。

该方法在 Databricks Runtime 11.3+ 及 Spark 3.3+ 上验证有效,相比 pandas_udf(向量化)虽略慢,但胜在逻辑清晰、调试友好、内存可控,是平衡性能与可维护性的优选实践。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

769

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

661

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

764

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

639

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1325

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

549

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

579

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

709

2023.08.11

Java编译相关教程合集
Java编译相关教程合集

本专题整合了Java编译相关教程,阅读专题下面的文章了解更多详细内容。

9

2026.01.21

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 10万人学习

Django 教程
Django 教程

共28课时 | 3.3万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号