正文内容 评论(0)
快科技12月14日消息,这两年AI爆发,它不仅影响了AI产业,实际上还在改变了芯片发展的方向,但是这个方向对HPC、科学计算来说可不一定是好事。
这是因为NVIDIA近年来已经把AI性能作为一切的核心,计算精度实际上是不断降低的,以前大家比较GPU性能可能还会计算有FP64、FP32这两个核心指标,如今AI时代,FP16、FP8及FP4才是重点。
我们之前提到过,NVIDIA新一代显卡会转向FP4标准,从Blackwell开始虽然也支持FP4、MXFP4这两种标准,但重点推的是NVFP4,它跟E2M1 FP4结构差不多,但精度几乎没有多少损失。
GB300在支持FP4后性能提升了50%,精度比FP8几乎没有损失,内存占用大幅减少2-3倍,能效则是50倍提升。
但是在FP64上面,这几年的显卡,尤其是顶级产品不仅没提升,还在倒退,HPCWire做了这几代显卡的对比,如下所示:
A100时代FP64性能还有9.7TFLOPS,H100及H200是34TFLOPS,B100、B200是30、37TFLOPS,B300则是大幅降低到了1.2TFLOPS。
这已经引起了学术圈的抱怨,SC25大会期间,TOP500的发起人、田纳西大学教授Jack Dongarra就表示NVIDIA在从Hopper架构转向Blackwell时没有实质性提升FP64性能。
AI性能虽然重要,但在科学计算上,比如材料科学、气候建模、流体力学模拟等研究中,FP64性能是无可替代的。
对于这些质疑,NVIDIA负责HPC、AI超大规模基础设施解决方案的高级总监Dion Harris强调他们并没有放弃64位计算,它依然是核心。
他提到10月份推出的cuBLAS,这是一个CUDA-X数学库,可以在矢量核心上模拟FP64计算,使用这个库可以让FP64性能提升1.8倍。
至于专业人士期待的FP64性能提升,Dion Harris提到NVIDIA未来的GPU会在核心底层上提升FP64计算,但具体信息暂时不能说。
明年3月份会有GTC大会上,NVIDIA应该会公布下一代GPU架构了,或许会在这方面有所变化。

- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...

