12月14日快讯,过去两年ai迎来爆发式增长,其影响远不止于ai产业本身,更深层地重塑了芯片技术演进路径。然而,这一转向对高性能计算(hpc)与科学计算领域而言,未必是利好。
原因在于,NVIDIA近年来将AI算力作为产品设计的绝对重心,导致计算精度持续下探。以往评估GPU性能时,FP64(双精度)与FP32(单精度)仍是关键标尺;而进入AI时代后,FP16、FP8乃至FP4已成为研发与推广的核心焦点。
此前我们曾指出,NVIDIA新一代GPU已明确向FP4精度标准迁移。Blackwell架构虽已支持FP4及MXFP4两种格式,但主推的是NVFP4——其结构与E2M1 FP4相近,却几乎未牺牲数值精度。
以GB300为例,在启用FP4后,整体性能跃升50%,精度相较FP8几无衰减,内存占用压缩至原来的1/2–1/3,能效则实现高达50倍的提升。
但反观FP64性能,近年旗舰显卡不仅未见进步,甚至出现明显滑坡。HPCWire对多代GPU进行了横向对比,结果如下:

A100时代的FP64算力尚有9.7 TFLOPS,H100与H200分别达34 TFLOPS;B100、B200小幅上探至30、37 TFLOPS;而最新B300却骤降至仅1.2 TFLOPS。
该趋势已在学术界引发广泛质疑。在SC25大会期间,TOP500榜单联合创始人、田纳西大学教授Jack Dongarra直言:NVIDIA自Hopper架构过渡至Blackwell过程中,FP64性能并未获得实质性增强。
诚然,AI算力至关重要,但在材料模拟、气候建模、流体力学等基础科研场景中,FP64精度仍具不可替代性。
针对上述争议,NVIDIA负责HPC与AI超大规模基础设施解决方案的高级总监Dion Harris回应称,公司从未放弃对64位浮点计算的支持,FP64依然是技术战略中的核心一环。
他特别提到,今年10月发布的cuBLAS库(属于CUDA-X数学工具集),可在矢量计算单元上高效模拟FP64运算,实测可使FP64性能提升1.8倍。
至于业界翘首以盼的硬件级FP64性能升级,Dion Harris表示,未来GPU将在底层计算核心层面强化FP64能力,但具体细节目前尚不便透露。
明年3月举办的GTC大会,预计将揭晓下一代GPU架构,FP64性能能否迎来转折,值得密切关注。

以上就是AI已成一切的核心 NVIDIA表态:我们没放弃64位计算的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号