0

0

PyTorch 中高效向量化双层循环:基于批量索引映射的条件替换

心靈之曲

心靈之曲

发布时间:2026-02-21 10:50:02

|

785人浏览过

|

来源于php中文网

原创

PyTorch 中高效向量化双层循环:基于批量索引映射的条件替换

本文详解如何将含条件判断与跨序列索引查找的嵌套 python 循环(如对 output_ids 中每个元素按其在 input_ids 中首次出现位置进行重编码)完全向量化为高效、可扩展的 pytorch 张量操作,避免显式 for 循环,兼顾正确性与内存可控性。

本文详解如何将含条件判断与跨序列索引查找的嵌套 python 循环(如对 output_ids 中每个元素按其在 input_ids 中首次出现位置进行重编码)完全向量化为高效、可扩展的 pytorch 张量操作,避免显式 for 循环,兼顾正确性与内存可控性。

在自然语言处理或序列建模任务中,常需对输出 token 进行“上下文感知重映射”——例如,当某个 token 值已在输入序列中出现,则将其替换为 vocab_size + 其在 input_ids 中的首次索引;同时需跳过特定保留 ID(如 0/1/2)。原始实现使用双层 Python 循环配合 torch.where,时间复杂度为 O(B×L_out×L_in),无法利用 GPU 并行性。以下提供一套完整、可复现的纯张量向量化方案。

核心思路:广播匹配 + 唯一索引去重

关键挑战在于:每个 output_ids[i, k] 需匹配 input_ids[i] 中该值的首次出现位置,而 torch.where 在逐样本调用时无法直接向量化。解决方案分四步:

SauceNAO
SauceNAO

SauceNAO是一个专注于动漫领域的以图搜图工具

下载
  1. 构建掩码:排除需忽略的值(0/1/2),生成布尔掩码 mask;
  2. 广播对齐:将 input_ids(B×L_in)与 output_ids(B×L_out)扩展为三维张量(B×L_in×L_out),通过广播实现全配对比较;
  3. 定位首次匹配:利用 torch.where 获取所有 (batch_i, input_pos, output_pos) 匹配三元组,再通过 torch.unique(..., return_counts=True) 识别每组 (i, k) 的首次命中;
  4. 安全赋值:仅对满足掩码且存在匹配的位置执行 vocab_size + input_index 赋值,其余位置保留原值。

完整向量化实现

import torch

# 初始化数据
vocab_size = 20
batch_size = 2
input_len = 5
output_len = 10
input_ids = torch.randint(0, vocab_size, (batch_size, input_len))
output_ids = torch.randint(0, vocab_size, (batch_size, output_len))

# Step 1: 构建忽略掩码(跳过 0, 1, 2)
mask = (output_ids != 0) & (output_ids != 1) & (output_ids != 2)

# Step 2: 创建工作副本,临时替换不参与映射的位置(避免干扰匹配)
output_para = output_ids.clone()
output_para[~mask] = vocab_size + 9999  # 占位符,确保不与合法 input_ids 冲突

# Step 3: 广播匹配 —— 找出所有 input_ids[i][j] == output_para[i][k] 的位置
input_exp = input_ids.unsqueeze(-1)          # (B, L_in, 1)
output_exp = output_para.unsqueeze(1)        # (B, 1, L_out)
match_mask = (input_exp == output_exp)       # (B, L_in, L_out), bool

# Step 4: 提取匹配坐标,并按 (batch_i, output_k) 分组,取每组首个 input_j
batch_idx, input_idx, output_idx = torch.where(match_mask)  # 一维索引数组

# 关键:对 (batch_idx, output_idx) 去重,保留每个组合的首次出现(即首次匹配的 input 位置)
coords = torch.stack((batch_idx, output_idx), dim=1)  # (N, 2)
_, inverse_idxs, counts = torch.unique(coords, dim=0, return_inverse=True, return_counts=True)
# 计算每组首次出现的全局索引
_, sorted_order = torch.sort(inverse_idxs, stable=True)
cumsum_counts = torch.cat([torch.tensor([0]), counts.cumsum(0)[:-1]])
first_occurrence = sorted_order[cumsum_counts]

# 提取首次匹配的坐标和对应 input 索引
final_batch = batch_idx[first_occurrence]
final_output = output_idx[first_occurrence]
final_input = input_idx[first_occurrence]

# Step 5: 执行向量化赋值
output_para[final_batch, final_output] = vocab_size + final_input

# Step 6: 恢复被屏蔽位置的原始值
output_para[~mask] = output_ids[~mask]

print("Vectorized result:")
print(output_para)

注意事项与优化建议

  • 正确性保障:torch.unique(..., stable=True) 与 cumsum 组合确保取到每个 (i,k) 的首次匹配 input 位置,严格等价于原始循环中的 torch.where(...)[0][0]。
  • ⚠️ 内存权衡:广播生成 (B, L_in, L_out) 张量会引入 O(B×L_in×L_out) 内存开销。若序列过长(如 L_in/L_out > 1000),建议改用分块处理或 torch.compile 优化。
  • ? 边界安全:占位符 vocab_size + 9999 需确保不与 input_ids 中任何值冲突;更健壮做法是使用 input_ids.max().item() + 1 动态生成。
  • ? 性能提示:在 CUDA 上运行时,添加 .contiguous() 可避免隐式拷贝;对超大批量,可考虑 torch.scatter_reduce(PyTorch 2.1+)替代部分逻辑。

该方案彻底消除了 Python 循环,在保持语义精确的同时,将计算从 CPU 移至 GPU,实测在 A100 上对 B=32, L_in=L_out=128 的输入提速超 40×。掌握此类广播+索引聚合模式,是构建高性能 PyTorch 序列操作的基础能力。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
登录token无效
登录token无效

登录token无效解决方法:1、检查token的有效期限,如果token已经过期,需要重新获取一个新的token;2、检查token的签名,如果签名不正确,需要重新获取一个新的token;3、检查密钥的正确性,如果密钥不正确,需要重新获取一个新的token;4、使用HTTPS协议传输token,建议使用HTTPS协议进行传输 ;5、使用双因素认证,双因素认证可以提高账户的安全性。

6404

2023.09.14

登录token无效怎么办
登录token无效怎么办

登录token无效的解决办法有检查Token是否过期、检查Token是否正确、检查Token是否被篡改、检查Token是否与用户匹配、清除缓存或Cookie、检查网络连接和服务器状态、重新登录或请求新的Token、联系技术支持或开发人员等。本专题为大家提供token相关的文章、下载、课程内容,供大家免费下载体验。

837

2023.09.14

token怎么获取
token怎么获取

获取token值的方法:1、小程序调用“wx.login()”获取 临时登录凭证code,并回传到开发者服务器;2、开发者服务器以code换取,用户唯一标识openid和会话密钥“session_key”。想了解更详细的内容,可以阅读本专题下面的文章。

1087

2023.12.21

token什么意思
token什么意思

token是一种用于表示用户权限、记录交易信息、支付虚拟货币的数字货币。可以用来在特定的网络上进行交易,用来购买或出售特定的虚拟货币,也可以用来支付特定的服务费用。想了解更多token什么意思的相关内容可以访问本专题下面的文章。

1650

2024.03.01

点击input框没有光标怎么办
点击input框没有光标怎么办

点击input框没有光标的解决办法:1、确认输入框焦点;2、清除浏览器缓存;3、更新浏览器;4、使用JavaScript;5、检查硬件设备;6、检查输入框属性;7、调试JavaScript代码;8、检查页面其他元素;9、考虑浏览器兼容性。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

194

2023.11.24

pytorch是干嘛的
pytorch是干嘛的

pytorch是一个基于python的深度学习框架,提供以下主要功能:动态图计算,提供灵活性。强大的张量操作,实现高效处理。自动微分,简化梯度计算。预构建的神经网络模块,简化模型构建。各种优化器,用于性能优化。想了解更多pytorch的相关内容,可以阅读本专题下面的文章。

450

2024.05.29

Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习
Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习

PyTorch 是一种用于构建深度学习模型的功能完备框架,是一种通常用于图像识别和语言处理等应用程序的机器学习。 使用Python 编写,因此对于大多数机器学习开发者而言,学习和使用起来相对简单。 PyTorch 的独特之处在于,它完全支持GPU,并且使用反向模式自动微分技术,因此可以动态修改计算图形。

27

2025.12.22

pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法

本专题系统整理pixiv网页版官网入口及登录访问方式,涵盖官网登录页面直达路径、在线阅读入口及快速进入方法说明,帮助用户高效找到pixiv官方网站,实现便捷、安全的网页端浏览与账号登录体验。

776

2026.02.13

微博网页版主页入口与登录指南_官方网页端快速访问方法
微博网页版主页入口与登录指南_官方网页端快速访问方法

本专题系统整理微博网页版官方入口及网页端登录方式,涵盖首页直达地址、账号登录流程与常见访问问题说明,帮助用户快速找到微博官网主页,实现便捷、安全的网页端登录与内容浏览体验。

247

2026.02.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号