正文内容 评论(0

卡住AI脖子 HBM成韩国出口王牌:芯片三巨头都得用
2025-08-11 21:24:58  出处:快科技 作者:宪瑞 编辑:宪瑞     评论(0)点击可以复制本篇文章的标题和链接复制对文章内容进行纠错纠错

快科技8月11日消息,AI这两年来成为市场热点,并且也成为大国竞争的关键技术之一,NVIDIA的GPU虽然更强大,但在存储芯片上也要依赖韩国厂商,因为HBM内存逐渐卡住AI脖子。

HBM(High Bandwidth Memory)是一种高带宽内存标准,主要用于满足日益增长的计算需求。

相比传统内存,HBM可以提供更高的数据传输速率和更低的延迟。

在这个领域,率先量产的是SK海力士,美国也有美光公司开始量产,内存一哥三星反而是最慢的。

HBM最新标准已经到了HBM4,但市场上当前的主力还是HBM3E,堆栈层数正在从8层提升到12层,单颗容量轻松达到36GB,而SK海力士凭借技术优势可以做到16层堆栈,容量48GB,今年就能供货。

得益于市场优势,SK海力士HBM事业部高管崔俊龙Choi Joon-yong日前在采访中表示,来自终端用户对AI的需求非常庞大,而且非常稳固。

该公司也预测到2030年之前,HBM市场将以每年30%的增长率发展,市场规模将达到数百亿美元。

HBM内存也逐渐成为韩国芯片出口的王牌,去年对美国的芯片总出口为107亿美元,其中HBM就占了存储芯片的18%。

NVIDIA、AMD及Intel三家主要的AI芯片巨头当前及下一代的AI芯片也会进一步提升HBM显存的容量和速度,其中AMD明年的主力产品MI400将使用高达432GB的HBM4,带宽19.6TB/s,对比MI350系列的288GB HEM3E、8TB/s分别增加50%、145%,比竞争对手的产品也高出50%。

值得一提的是,HBM也成为国内AI芯片发展的关键限制因素之一,国内也有公司在自研HBM芯片,但技术水平落后SK海力士一两代,HBM3e、HBM4量产还要等几年时间。

不过华为即将在未来两天公布一项新技术,这项成果或能降低中国AI推理对HBM(高带宽内存)技术的依赖,提升国内AI大模型推理性能,完善中国AI推理生态的关键部分。

卡住AI脖子 HBM成韩国出口王牌:芯片三巨头都得用

【本文结束】如需转载请务必注明出处:快科技

责任编辑:宪瑞

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |
本文收录在
#NVIDIA#AMD#HBM

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...