正文内容 评论(0

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流
2026-03-03 11:00:09  出处:快科技 作者:宪瑞 编辑:宪瑞     评论(0)点击可以复制本篇文章的标题和链接复制对文章内容进行纠错纠错

快科技3月3日消息,虽然春节档DeepSeek V4没有发布,但DeepSeek在2月11日发了一个新模型,被称为DeepSeek V4 Lite,只有2000亿参数,规模比较小。

DeepSeek V4 Lite主要特色是1M上下文,之前网友测试其表现除了超长上下文之外也没太惊艳的地方,毕竟参数规模跟主流的大模型差很多。

然而DeepSeek V4 Lite发布之后一直在悄悄升级,2月27日已经有网友测试发现其性能越来越强大,昨天又升级了一波,Linux Do社区大佬HCPTangHY测试之后也大为震惊,称其有点神,在他的测试中已经是国模SOTA(注:SOTA简单认为是第一就行)。

不仅如此,如果继续训练下去,还有可能开源撬动闭源。

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

从他的测试来看,DeepSeek V4 Lite的0302升级之后分数比之前的0227版更高一层楼,已经逼近目前最顶流的大模型Sonnet 4.6了。

帖子中还有其他的游戏及前端测试,包括业内很有名的天气卡测试,DeepSeek V4 Lite 0302版不论审美还是功能都是在线的。

回顾这一年来的AI大模型来看,国产大模型在对话聊天方面已经跟闭源模型差别不大,但在多模态、编程、数学及智能体等方面是被甩开的,最近发布的GLM5、MiniMax 2.5、Qwen 3.5系列有所提升,但Anthropic、OpenAI及谷歌也发布了最新的模型,差距又拉开了。

在追赶顶流闭源模型上,国内的公司面临着多方面的不利因素,投入没有美国公司的多,而且算力不够,数据资料方面也不如谷歌、OpenAI,毕竟他们要么有此前多年的积累,要么有大量用户。

而且Anthrpoic之前为了搜集数据,竟然从盗版网站上下载了大量书籍,还被判赔偿15亿美元,由此可见他们在这方面的投入之大,不要脸程度之深。

作为全村的希望,DeepSeek在技术探索上已经树立了标杆,如果2000亿小参数的DeepSeek V4 Lite就有如此表现,那完整版的DeepSeek V4确实非常值得期待,发布之后免不了又要对美国AI造成巨大冲击了。

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

DeepSeek V4 Lite悄然更新:2000亿小参数性能逼近美国顶流

【本文结束】如需转载请务必注明出处:快科技

责任编辑:宪瑞

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |
本文收录在
#DeepSeek#DeepSeekV4#AI

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...