正文内容 评论(0

内存焦虑有救了!谷歌发布新型AI内存压缩技术
2026-03-26 11:31:04  出处:快科技 作者:鹿角 编辑:鹿角     评论(0)点击可以复制本篇文章的标题和链接复制对文章内容进行纠错纠错

快科技3月26日消息,谷歌研究院推出全新AI内存压缩技术TurboQuant,精准破解AI推理的内存瓶颈。

该技术可在不损失精度的前提下,将大语言模型缓存内存占用至少缩减6倍,推理速度最高提升8倍。

令科技行业兴奋!谷歌发布新型AI内存压缩技术

AI模型运行时有一种“工作内存”,即KV缓存(Key-Value Cache)。每当模型处理信息、生成回答时,KV缓存便会迅速膨胀,且上下文窗口越长,缓存占用的内存越大。

这已成为制约AI系统效率与成本的核心瓶颈,并非模型不够智能,而是运行时的内存难以支撑。

令科技行业兴奋!谷歌发布新型AI内存压缩技术

TurboQuant采用向量量化的方法对缓存进行压缩,使AI在占用更少内存的同时记住更多信息,且保持准确性。实现这一效果的关键在于两项技术:名为PolarQuant的量化方法,以及名为QJL的训练与优化手段。研究团队计划在下个月的ICLR 2026会议上正式发布相关成果。

研究团队在Gemma和Mistral等开源大模型上进行了严格的基准测试。实验数据显示,TurboQuant无需任何预训练或微调,即可将键值缓存高效压缩至3比特,在“大海捞针”等长上下文测试中实现零精度损失,内存占用降至原来的六分之一。

此外,在H100 GPU加速器上,4比特TurboQuant的运行速度较未量化的32比特基准提升了高达8倍。

令科技行业兴奋!谷歌发布新型AI内存压缩技术

令科技行业兴奋!谷歌发布新型AI内存压缩技术

令科技行业兴奋!谷歌发布新型AI内存压缩技术

【本文结束】如需转载请务必注明出处:快科技

责任编辑:鹿角

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |
本文收录在
#谷歌#AI#内存

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...