正文内容 评论(0

美国AI财大气粗 国产AI学不了:Kimi仅用了1%算力就超越主流闭源
2026-01-22 21:46:48  出处:快科技 作者:宪瑞 编辑:宪瑞     评论(0)点击可以复制本篇文章的标题和链接复制对文章内容进行纠错纠错

快科技1月22日消息,在AI竞赛上领先的主要是中美两国,其中美国AI有着得天独厚的优势,不缺钱不缺算力,但中国公司的AI往往面临算力限制,学不了美国AI的财大气粗玩法。

但这不代表国产AI做不出来成绩,研发出Kimi的月之暗面公司总裁张予彤日前在达沃斯论坛上也谈到了这个问题,表示从创业第一天起就意识到中国公司没有随意堆砌算力的条件,迫使他们通过大量基础研究的创新来换取极致的效率。

张予彤提到,Kimi仅使用美国顶尖AI实验室约1%的计算资源,便成功推出Kimi K2、Kimi K2 Thinking等全球领先的开源大模型,并在部分关键性能指标上超越美国主流闭源模型。

张予彤还提到Kimi最新一代大模型即将发布,此前我们也报道过此事,该公司已经开启招募人员内测,名字可能是K2.1,也有可能叫做K2.5。

尽管月之暗面没有透露这个新模型到底有多强,但多模态及智能体Agent预计成为重点,在商业化前景最为明确的AI编程领域很有可能带来惊喜,毕竟万亿参数的规模比智谱的GLM 4.7及Minimax的MiniMax 2.1模型规模就要大不少,能力应该会更强。

事实上,算力紧缺不只是Kimi大模型遇到的,此前DeepSeek也在论文中提到他们的大模型面临着算力及世界知识的限制,毕竟这方面国内公司天然地就面临着不利,顶级AI芯片既不能买也暂时没有台积电敢给代工。

好消息是国产AI芯片突破的也很快,新一代AI芯片也会全面支持FP8、FP4算子标准,性能也会跟上,尽管还不能超越NVIDIA芯片,但通过集群设计还是可以实现性能领先的,今年应该就能看到具体的突破。

美国AI财大气粗 国产AI学不了:Kimi仅用了1%算力就超越主流闭源

【本文结束】如需转载请务必注明出处:快科技

责任编辑:宪瑞

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |
本文收录在
#Kimi#AI#国产芯片

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...