非营利组织生命未来研究所(future of life institute)近日发布了最新版《ai 安全指数》报告,该报告由多位人工智能领域权威专家共同编制,对当前主流ai企业于关键安全维度的表现进行了系统性评估与评级。

核心结论如下:
头部机构与其余参评方之间仍呈现显著分层态势。Anthropic、OpenAI 及谷歌 DeepMind 位列第一梯队,而 Z.ai、xAI、Meta、阿里云、DeepSeek 等则处于后续梯队。二者差距最为突出的环节集中于风险识别能力、安全治理体系建设以及跨组织信息协同机制等方面;其深层原因包括:公开披露信息有限、缺乏可验证的系统性安全流程记录,以及在开展严谨、可复现的安全评估实践方面进展不一。
生存级风险防控仍是行业整体性短板。尽管所有被评估公司均正加速推进通用人工智能(AGI)乃至超级智能的研发进程,但目前尚无一家提出具备操作性、可验证性的技术控制路径或全球协同治理方案,用以应对其潜在超越人类认知与决策能力所带来的根本性挑战。这意味着最严峻的存在性风险仍未被实质性纳入战略应对范畴。
企业层面的安全承诺尚未充分转化为高标准落地实践。尽管多数公司已表态支持并部分采纳如欧盟《人工智能实践准则》等国际新兴规范,但在执行层面仍普遍存在策略模糊、细节缺失、验证不足等问题,致使实际安全举措在严谨性、量化程度及公开透明度等方面,尚未达到上述框架所倡导的理想水平。
注:本报告所依据的公开资料与实证数据采集截止时间为 2025 年 11 月 8 日,未涵盖此后发布的重要模型更新,例如 Google DeepMind 的 Gemini 3 Pro、xAI 的 Grok 4.1、OpenAI 的 GPT-5.1 或 Anthropic 的 Claude Opus 4.5。
完整报告请访问:https://www.php.cn/link/14b823daa1dc97b96140b6201156550a
源码地址:点击下载
以上就是OpenAI 等头部 AI 企业的安全监管未达到全球标准的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号