0

0

模型只要「变大」就能直通AGI?马库斯再次炮轰:三个危机已经显现!

王林

王林

发布时间:2023-04-13 14:58:03

|

1797人浏览过

|

来源于51CTO.COM

转载

今年5月,deepmind发布了一个多模态人工智能系统gato,仅靠一套模型参数即可同时执行600多种不同的任务,一时引起行业内对通用人工智能(agi)的热议。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

图片

DeepMind的研究部主管Nando de Freitas当时还发了一个推特表示,只要不断提升规模(scale)就能把AI给通关了!

图片

我们要做的只是让模型更大、更安全、计算更有效率、采样更快、更智能的存储、更多模态、在数据上创新、在线/离线等。

只要解决规模上的问题就能抵达AGI,业界需要多关注这些问题!

最近,著名AI学者、Robust.AI的创始人兼 CEO 、纽约大学的名誉教授Gary Marcus又发表了一篇博客,认为这种说法「为时太早了」,并且已经开始出现危机了!

Marcus对AI行业发展持续关注,但对AI的炒作持批判态度,曾表达过「深度学习撞墙」、「GPT-3完全没意义」等反对意见。

大模型玩不下去怎么办?

Nando认为,人工智能不需要进行范式转变,只需要更多的数据、更高的效率和更大的服务器。

Marcus把这个假设转述为: 如果没有根本性的新创新,AGI可能会从更大规模的模型中产生。这个假设也可以称之为「规模超越一切」(scaling- über-alles)。

他的假设,现在通常被称为规模最大化(scaling maximalism),仍然非常流行,很大程度上是因为越来越大的模型确实性能很强,比如图像生成等任务都需要借助大模型。

但也仅仅是到目前为止。

图片

问题在于,数月乃至数年来不断提高的一些技术,实际上远远不能达到我们所需要的那种规模。

庞氏骗局越来越多,规模带来的性能优势只是经验观察得出的结果,无法确保正确。

Marcus分享了三个最近看到的前兆,可能预示着规模最大化假说可能将要终结。

1.世界上可能没有足够的数据量来支持规模最大化。

这点很多人已经开始担心了。

来自纽约大学和苏黎世联邦理工大学的研究人员William Merrill、Alex Warstadt和Tal Linzen最近提出了一个证明,称「目前的神经语言模型不太适合在没有大量数据的情况下提取自然语言的语义」。

图片

论文链接:https://arxiv.org/pdf/2209.12412407.pdf

尽管这个证明中包含了太多的前置假设,以至于无法被当作一个反驳证据,但是如果这个假设接近正确的话,那么在规模上可能很快就会出现真正的麻烦。

2.世界上可能没有足够的可用计算资源支撑规模最大化。

Miguel Solano最近给Marcus寄来了一份合作撰写的手稿 ,作者认为,要想达到当前的超级基准,例如BIG-bench,将会需要消耗2022年全美国电力消耗的四分之一还多。

图片

仓库链接:​​https://www.php.cn/link/e21bd8ab999859f3642d2227e682e66f​

BIG-bench是一个众包的基准数据集,旨在探索大型语言模型并推断其未来的能力,其中包含200多个任务。

3.一些重要的任务可能根本无法在规模上扩展。

最明显的例子是最近由Ruis, Khan, Biderman, Hooker, Rocktäschl和Grefenstette共同完成的一项语言学任务,他们研究了语言的语用含义。

比如对于问题「你留下指纹了吗?」,收到回答可能是「我戴了手套」,其语义是「不」。

Dora
Dora

创建令人惊叹的3D动画网站,无需编写一行代码。

下载

正如Marcus长期以来所主张的那样,在没有认知模型和常识的情况下让模型意识到这一点真的很困难。

规模在这类任务中基本没什么作用,即使是最好的模型也只有80.6%的准确率,对于大多数模型来说,规模的效果最多只能忽略不计。

并且,你可以很容易地想象出该任务的更复杂版本,模型的性能还会进一步降低。

更让Marcus深受打击的是,即使是像这样单一的重要任务,约80%的性能也可能意味着规模的游戏无法继续玩下去。

如果模型只是学会了语法和语义,但是在语用或常识推理方面失败了,那么你可能根本就无法获得可信任的AGI

「摩尔定律」并没有像最初期望的那样带领我们走得那么远,那么快,因为它并不是宇宙的因果定律,永远成立。

规模最大化只是一个有趣的假设,它不会让我们抵达通用人工智能,比如上述三个问题的解决将会迫使我们进行范式转换。

网友Frank van der Velde表示,规模最大化的追随者往往倾向于使用「大」和「更多」这样模糊的术语。

与人类在学习语言中使用的训练数据相比,深度学习模型用到的训练数据太大了。

但与人类语言真正语义集合相比,这些所谓的海量数据仍然微不足道,大约需要100亿人每秒生成一句话,持续300年才有可能得到这么大规模的训练集。

网友Rebel Science更是直言,规模最大化不是一个有趣的假设,而是一个愚蠢的假设,不仅会输在AI这条赛道上,而且还会死的很难看。

规模最大化过于极端

哥伦比亚大学哲学系讲师、牛津大学博士Raphaël Millière在「规模最大化」问题争斗最激烈时也发表了一些自己的看法。

规模最大化曾经被看作是深度学习批评家的抓手(比如Gary Marcus),随着行业内人士如Nando de Freitas和Alex Dimakis加入争论,两方吵得不可开交。

从业者的反应大多喜忧参半,但并非过于消极,同时预测平台Metaculus上对AGI实现的预测日期已经提前到了历史最低点(2028年5月) ,这也可能增大了规模最大化的可信度。

人们对「规模」逐渐信任可能是由于新模型的发布,诸如PaLM, DALL-E 2, Flamingo和Gato的成功为规模最大化添了一把火。

Sutton 的「Bitter Lesson」在关于规模最大化的讨论中抛出了很多观点,不过并非完全等价,他认为将人类知识构建到人工智能模型(例如,特征工程)中的效率低于利用数据和计算来学习的效率。

图片

文章链接:http://www.incompleteideas.net/IncIdeas/BitterLesson.html

虽然并非没有争议,但Sutton的观点似乎明显没有规模最大化那么激进。

它确实强调了规模的重要性,但是并没有把人工智能研究中的每一个问题简化为仅仅是规模的挑战。

事实上,很难确定规模最大化的具体含义,从字面上理解,「Scaling is all you need」表明我们不需要任何算法创新或者架构变化就能实现 AGI,可以扩展现有的模型,并强制输入更多的数据。

这种字面上的解释看起来很荒谬: 即使是像 PalM、 DALL-E 2、 Flamingo或者Gato这样的模型也仍然需要对以前的方法进行架构上的改变。

如果有人真的认为我们可以将现成的自回归Transformer扩展到 AGI,那真的会让人感到惊讶。

目前还不清楚认同规模最大化的人觉得AGI需要多大程度的算法创新,这也使得从这一观点很难产生可证伪的预测。

扩大规模可能是构建任何应该被贴上「通用人工智能」标签系统的必要条件,但是我们不应该把必要误认为是充分条件。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

16

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

23

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

75

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

95

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

218

2026.03.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

420

2026.03.04

AI安装教程大全
AI安装教程大全

2026最全AI工具安装教程专题:包含各版本AI绘图、AI视频、智能办公软件的本地化部署手册。全篇零基础友好,附带最新模型下载地址、一键安装脚本及常见报错修复方案。每日更新,收藏这一篇就够了,让AI安装不再报错!

168

2026.03.04

Swift iOS架构设计与MVVM模式实战
Swift iOS架构设计与MVVM模式实战

本专题聚焦 Swift 在 iOS 应用架构设计中的实践,系统讲解 MVVM 模式的核心思想、数据绑定机制、模块拆分策略以及组件化开发方法。内容涵盖网络层封装、状态管理、依赖注入与性能优化技巧。通过完整项目案例,帮助开发者构建结构清晰、可维护性强的 iOS 应用架构体系。

222

2026.03.03

C++高性能网络编程与Reactor模型实践
C++高性能网络编程与Reactor模型实践

本专题围绕 C++ 在高性能网络服务开发中的应用展开,深入讲解 Socket 编程、多路复用机制、Reactor 模型设计原理以及线程池协作策略。内容涵盖 epoll 实现机制、内存管理优化、连接管理策略与高并发场景下的性能调优方法。通过构建高并发网络服务器实战案例,帮助开发者掌握 C++ 在底层系统与网络通信领域的核心技术。

33

2026.03.03

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Django 教程
Django 教程

共28课时 | 4.9万人学习

Go 教程
Go 教程

共32课时 | 6.1万人学习

TypeScript 教程
TypeScript 教程

共19课时 | 3.4万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号