正文内容 评论(0)
近期内存现货市场价格出现小幅回落,一些观望者以为抄底时机已到。但这不过是长期上涨趋势中的微小波动。只要AI应用持续深入,内存需求就只会向上攀升。在Token经济学的法则下,内存已成为AI时代名副其实的“数字石油”。
Token不只是技术术语,是经济单位
要理解内存为何不可或缺,先要明白AI的“口粮”是什么。大模型如同一个数字大脑,Token(词元)是其思考与交流的最小单元。当你向AI提问时,系统会将文字拆解成一个个Token编号进行处理。
英伟达CEO黄仁勋提出的“Token经济学”认为,Token不仅是算力的计量单位,更是智能时代的硬通货。他描绘的未来图景中,AI智能体将像灵活的“龙虾钳”一样处理各类事务,而驱动这些智能体运转的根本燃料,就是源源不断的Token产出。
Token激增的直接后果:内存不够用为什么Token激增必然拉动内存需求?这要回到AI推理的“工作记忆”机制。在AI系统中,DRAM扮演着短期记忆的角色——每一次对话交互都需要内存实时存储相关数据。
数据显示,一个日均消耗1000万Token的重度用户,原始文本仅约40MB,但为了快速响应,系统需要将其转换为向量索引并保存会话状态,数据量会膨胀至50GB到100GB。打个比方:让AI编写代码时,它会同时开启多个智能体分别负责编写、审查、测试、修改——每个智能体都要占用大量内存。一句话:AI越复杂,内存越费。
正因如此,全球资本和终端厂商都紧盯着屈指可数的内存供应商——三星、SK海力士、美光,以及中国唯一规模化量产的长鑫存储。谁掌握内存,谁就掌握AI时代的供应链话语权。
TurboQuant的局限性:不是万能药
谷歌研究院近期发布的TurboQuant论文,一度让市场担心内存需求会被压缩。但深入分析就会发现,一篇论文远不足以改变内存的长期走势。
首先,摩根士丹利指出,TurboQuant主要针对KV缓存压缩,影响仅限于部分三级存储成本,而非整体内存需求。其次,从算法原型到大规模工业落地需要漫长周期,历史上类似优化从未逆转硬件规格升级的趋势。最关键的是,即便算法真的能压缩单个Token的内存占用,根据“杰文斯悖论”,效率提升反而会降低使用门槛,刺激更广泛的调用,最终使总内存需求爆炸式增长。
端侧AI为什么更费内存?
Token爆发带来的内存焦虑正从云端蔓延至个人设备。为了让端侧AI流畅运行,厂商开始疯狂堆料:
AI PC正迈向32GB时代——16GB仅够勉强运行AI应用,2026年下半年换机潮中,32GB乃至更高容量将成为标配。旗舰手机同样面临“生存红利”,16GB/24GB内存正成为新机标配。多模态应用更是存储吞噬者——一分钟视频的体积是同长度文本的上万倍,这些必须秒开的“热数据”全部压在高速内存上。
闲鱼上的内存降价只是浮云。当前内存价格仍是两年前低点的近两倍。全球主流AI存储产品基本处于“下线即发货”的缺货状态。正如“HBM之父”金正浩所言:未来架构将彻底转向“以内存为中心”。算法的修修补补挡不住Token时代的滚滚车轮。只要你还想用上更聪明的AI,内存需求就没有天花板。
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...


