正文内容 评论(0)
今年6月份,AMD在美国旧金山宣布了新一代AI/HPC加速器Instinct MI300系列,包括全球首款APU加速器MI300A、新一代GPU加速器MI300X。
当时,AMD只公布了一部分技术细节,对于CPU/GPU核心数量、性能/功耗/能效等指标均未提及,也缺乏足够多的应用案例。
现在,魔术师终于揭晓了他全部的秘密。
快科技现场报道:
北京时间12月7日凌晨,美国加州圣何塞,AMD Advancing AI大会上,AMD正式公布了Instinct MI300系列加速器的详细规格与性能,以及众多的应用部署案例,将AI人工智能、HPC高性能计算提升到了新的层次。
AI人工智能概念的诞生已经有将近70年历史了,历经长期演化,已经深入人们工作生活的各个角落,只是很多时候感知性并没有那么强,更多时候人们是通过一些节点性时间感受AI的威力。
早期像是IBM深蓝超级计算机战胜国际象棋大师卡斯帕罗夫,近期像是AlphaGo与李世石和柯洁的围棋大战,最近最火爆的当然是ChatGPT引发的大语言模型、生成式AI浪潮。
坦白说,大语言模型眼下似乎有些过热,但从技术和前景的角度而言,AI绝对是未来,不管它以什么形势体现,这都是大势所趋,也是一个庞大的市场,尤其是对算力的需求空前高涨。
一年前,AMD内部估计全球数据中心AI加速器市场在2023年的规模可达约300亿美元,今后每年的复合增长率都能超过50%,到2027年将形成超过1500亿美元的价值,不可限量。
如今看来,这个数据太保守了,AMD已经将2023年、2027年的数据中心AI加速器市场规模预期分别调高到400亿美元、4500亿美元,年复合增长率超过70%。
AMD作为拥有最全解决方案的厂商,可以从各个角度满足AI尤其是生成式AI对于超强算力、广泛应用的需求:
CPU方面有世界领先的EPYC处理器,GPU方面有不断壮大的Instinct加速器,网络方面则有Alveo、Pensando等技术,软件方面还有ROCm开发平台,从而形成一个有机的、完整的解决方案。
AMD早期的计算加速器底层技术都来自和游戏显卡相同的RDNA架构,显然缺乏针对性,于是诞生了专门针对计算的CDNA架构。
第一代产品Instinct MI100系列是AMD首个可为FP32/FP64 HPC负载提供加速的专用GPU,第二代产品Instinct MI200系列则快速进化,在众多超算系统中占据了一些之地。
第三代的Instinct MI300系列基于CDNA3架构,分为数据中心APU、专用GPU两条路线,重点提升了统一内存、AI性能、节点网络等方面的表现,再加上先进封装、更高能效,以满足生成式AI的强劲需求。