正文内容 评论(0

DeepSeek V4又有重大变化:支持FP4、为NVIDIA显卡做优化
2026-04-16 19:11:39  出处:快科技 作者:宪瑞 编辑:宪瑞     评论(0)点击可以复制本篇文章的标题和链接复制对文章内容进行纠错纠错

快科技4月16日消息,DeepSeek V4什么时候发布牵动人心,4月下旬问世应该是大概率了,现在又被网友发现DeepSeek的Github仓库有了重大变化,显示出一些有趣的升级。

DeepSeek的研究人员在官方仓库DeepGEMM更新了110个文件,里面的信息含量十足。

首先是大量FP8、FP4精度支持,其中FP8支持是之前就确认过的,但FP4放在2026年也算是比较新且激进的支持,它的性能更强,对显存的要求理论上比FP8还要再低一倍,这也意味着V4大模型的规模会很大。

其次就是对NVIDIA的SM100/Blackwell GPU进行了优化,此前传闻DeepSeek V4会首发国产AI平台,尤其是华为昇腾,但这不意味着DeepSeek V4只支持国产平台,现阶段NVIDIA的AI平台依然是少不了的。

FP4及Blackwell架构优化是相辅相成的,毕竟NVIDIA对FP4算法的支持也是目前最稳的之一。

DeepSeek V4又有重大变化:支持FP4、为NVIDIA显卡做优化

这次仓库更新还显示DeepSeek V4会使用新的架构——Mega MoE及HyperConnection,这两个都是适合超大规模参数量的,暗示着V4的规模同样不会小,之前猜测是万亿参数量,但是这两个架构优化好了,再加上对最新AI硬件及算法的支持,或许可以期待下更高的表现。

目前已知的大模型参数量最高能到10万,不过要么在训练中,要么就是Mythos这种还不能确定的,再往下的规模是5万亿参数量的,Claude Opus 4.6及传闻但还没发布的GPT-6被认为是这一级别的。

国产目前最大有过2.4万亿参数量的,但表现平平,没啥存在感,其他稍微高点的就是万亿级别的,Kimi K 2.5就是万亿规模,DeepSeek V3.X系列的是6700亿级别的,GLM-5.X则是7400多亿参数量的。

因此综合判断一下,DeepSeek V4在众多新技术的加持下,做到万亿参数是基本盘,如果能突破到2万亿参数,那性能应该有很惊艳的地方。

如果一次突破到5万亿级别,那说不定DeepSeek V4就会像去年的DeepSeek R1那样成为全球顶级SOTA大模型,只不过这个可能性不大,而且这样做意味着成本也会很高,不太符合DeepSeek的风格,要期待也是明年的DeepSeek V5了。

DeepSeek V4又有重大变化:支持FP4、为NVIDIA显卡做优化

【本文结束】如需转载请务必注明出处:快科技

责任编辑:宪瑞

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...