人工智能领域顶级会议neurips 2025最佳论文奖近日揭晓,共评选出四篇获奖论文,其中多篇由华人学者领衔完成。本次获奖研究聚焦语言模型多样性、大模型注意力机制优化、深度强化学习突破以及扩散模型的理论解析。

获奖工作包括 Liwei Jiang 等人提出的《Artificial Hivemind》,揭示了大模型生成过程中的“人工蜂群效应”;来自阿里巴巴通义千问团队的 Zihan Qiu 等人发表的《Gated Attention for Large Language Models》,提出了一种有效缓解“注意力沉降”问题的新架构;普林斯顿大学 Kevin Wang 等人通过构建千层网络实现自监督强化学习的重大进展;以及巴黎文理研究大学 Tony Bonnaire 等人对扩散模型泛化行为的深入理论分析。
值得一提的是,何恺明、孙剑等人于2015年发表的《Faster R-CNN》荣获本届“时间检验奖”,彰显其在计算机视觉领域的深远影响。
以下是各篇获奖论文的简要介绍:
最佳论文
Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)
Gated Attention for Large Language Models: Non-Linearity, Sparsity, and Attention-Sink-Free
1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities
Why Diffusion Models Don’t Memorize: The Role of Implicit Dynamical Regularization in Training
最佳论文荣誉提名(亚军)
Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?
Optimal Mistake Bounds for Transductive Online Learning
Superposition Yields Robust Neural Scaling
此外,任少卿、何恺明等人于2015年发表的经典论文《Faster R-CNN》被授予“时间检验奖”,该成果奠定了现代目标检测系统的基石架构,至今仍广泛应用于工业界与学术界。
源码地址:点击下载
以上就是NeurIPS 2025 最佳论文奖公布,中国研究者贡献突出的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号