0

0

还是原装Transformer好!北大清华团队同时揭示Mamba等推理短板

霞舞

霞舞

发布时间:2024-10-22 08:18:36

|

823人浏览过

|

来源于机器之心

转载

还是原装Transformer好!北大清华团队同时揭示Mamba等推理短板
AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

北京大学的工作来自智能学院王立威、贺笛老师课题组,发表于icml 2024。作者包括北京大学图灵班本科生杨铠;苏黎世联邦理工学院硕士生jan ackermann;北京大学智能学院博士生何震宇、冯古豪、张博航;纽约大学博士生冯韫禛;北京智源研究院研究员叶启威;清华大学的工作来自于明年即将入职清华大学交叉信息院做助理教授、目前在加州大学伯克利分校 simons institute 做博士后的吕凯风研究员。作者包括斯坦福在读一年级博士温凯越;清华大学姚班本科生党星宇。 

思维链(CoT)是大模型中最神秘的现象之一,尤其在数学任务上显著提升了 Transformer 的能力。然而,思维链的引入也使生成内容的长度增加,消耗了更多的计算资源。这不禁让人好奇:最新推出的高效模型(如 Mamba)是否也能像 Transformer 一样具备强大的推理能力?近期,北大和清华的研究团队同时给出了明确的否定答案,揭示了 Mamba 等高效模型在结构上的局限性。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

还是原装Transformer好!北大清华团队同时揭示Mamba等推理短板

  • 论文 1:Do Efficient Transformers Really Save Computation? (发表于 ICML 2024)
  • 论文链接:https://arxiv.org/abs/2402.13934

还是原装Transformer好!北大清华团队同时揭示Mamba等推理短板

  • 论文 2:RNNs are not Transformers (Yet): The Key Bottleneck on In-context Retrieval
  • 论文链接:https://arxiv.org/abs/2402.18510

基于 Transformer 的大语言模型在文本翻译、文本生成等许多领域展现了惊人的能力。主流的大语言模型通常采用自回归范式进行生成:由问题描述、相关提示组成的输入序列(prompt)会被首先编码。基于编码后的信息,大模型逐步生成后续的单词序列,以形成问题的答案。对于复杂的问题,已有的实践和理论研究表明,利用思维链提示(CoT)可以显著提升模型在数学或推理方面的问题解决能力。

还是原装Transformer好!北大清华团队同时揭示Mamba等推理短板

如上图,当给出的问题示例中只有最终结果,而没有中间的推理过程时,大模型在见到新问题时往往会生成错误的答案;但如果给出的问题示例中包含了完整的思维链(中间推导步骤),大模型在新问题上也往往会输出完整的思维链并得到正确答案。然而,思维链提示依赖于大量中间步骤的输出,使用 Transformer 架构会产生大量的计算开销。因此,一个自然的问题便是:能否使用更少的计算量,实现思维链推理?许多架构致力于降低注意力机制带来的计算复杂度,能否在这些架构上使用 CoT 提升性能并实现推理的加速?

近期,来自北大和清华的研究团队从理论角度对上述问题进行了深入探讨。结果令人惊讶:两个团队一致证实包括 Sparse Transformer、Linear Transformer、Mamba 在内的许多架构,即使在这些模型上应用思维链,其理论上的能力上限仍无法解决多种实际推理问题,并与标准 Transformer 有本质差距。这些理论结果为高效结构的实用价值蒙上了一层阴影。

Transformer + CoT 依然是最佳选项

北大的研究团队将推理任务通用地建模为动态规划。在推理过程中,模型需要按照合法的拓扑排序逐步输出子问题的结果(即思维链),以最终得出原问题的解。他们从理论角度证明,若希望 Sparse Transformers、Linear Transformers 等模型通过思维链来解决动态规划问题,模型的宽度必须增加,进而导致时间复杂度恰好达到平方级别。这一时间复杂度与标准 Transformers 在相同长度的推理任务中所需的复杂度一致,表明这些所谓的高效结构在一般推理问题上并不具备计算优势。

殊途同归,清华的研究团队考虑了 RNN 模型和 Transformer 模型在检索、关联回忆、计数,以及判断一张图是否为树等基本问题上的表达能力差异。他们从理论角度证明了,对于问题规模 n,任意 o (n) 大小的 RNN 模型均无法完成上述任务,即便使用任意长的 CoT。但一个固定大小的 Transformer 可以不使用 CoT 解决检索、关联回忆、计数等问题,并使用 O (n) 长度的 CoT 正确判断一张图是否为树。这些结果表明类 RNN 的结构使用思维链获得的能力,距离 Transformer 仍有巨大差距

两个研究得出相似结论的背后,揭示了相似的本质。这些模型架构之所以具有内存高效性,是因为它们能够在较少的空间下完全确定输出序列。然而,输出序列的可能性指数级增长,这使得这些架构无法以较小的模型尺寸正确生成所有可能的输出。换句话说,模型的规模必须随着问题规模的增加而扩展。这一核心观察表明,包括 Mamba 在内的具有循环(recurrent)性质的网络架构,都受到了相同的限制。

如何提升其它模型使用思维链的能力?

在得到负面结论的同时,两个团队考虑不同角度设计解决方案。

北大研究团队从推理任务的局部性入手,即当前输出所需要向前依赖的最远输出的距离。局部性反映了推理所需要的长程记忆难度。他们从理论角度证明了,当推理任务有较好的局部性时,许多高效模型能够以理论更优的推理速度完美解决问题。

来自清华的研究团队则从引入上下文检索器的角度入手。他们从理论角度证明了,使用显式上下文检索器或使用一层 Transformer 作为隐式上下文检索器,均可以大大增强 RNN 使用思维链后获得的能力。

研究团队还设计了大量的实验验证理论结果。来自北大的研究团队在多种 Transformer 架构上使用 CoT 数据进行训练,表明标准 Transformer 架构事实上使用了最小的计算量。

还是原装Transformer好!北大清华团队同时揭示Mamba等推理短板

Vondy
Vondy

下一代AI应用平台,汇集了一流的工具/应用程序

下载
同时,他们的实验结果也表明了良好的推理局部性(下图右列)能够增强多种 Efficient Transformers 的思维链推理能力,表现在使用相同尺寸的模型时能够解决规模更大的推理任务。

还是原装Transformer好!北大清华团队同时揭示Mamba等推理短板

来自清华的研究团队则在 Mamba 和 Transformer 上使用判定图是否为树的任务进行训练,表明 Transformer 结构在此问题上相比于 Mamba 所具有的显著优势,以及在 RNN 上使用上下文检索对性能的影响。

还是原装Transformer好!北大清华团队同时揭示Mamba等推理短板

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
http与https有哪些区别
http与https有哪些区别

http与https的区别:1、协议安全性;2、连接方式;3、证书管理;4、连接状态;5、端口号;6、资源消耗;7、兼容性。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

2922

2024.08.16

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

25

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

44

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

177

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

50

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

92

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

102

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

227

2026.03.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

530

2026.03.04

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Laravel 5.8 中文文档手册
Laravel 5.8 中文文档手册

共74课时 | 100.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号