正文内容 评论(0

腾讯混元0.5B、1.8B、4B、7B模型发布并开源:消费级显卡即可运行
2025-08-04 15:40:57  出处:快科技 作者:建嘉 编辑:建嘉     评论(0)点击可以复制本篇文章的标题和链接复制对文章内容进行纠错纠错

快科技8月4日消息,今日,腾讯混元发布四款开源小尺寸模型:0.5B、1.8B、4B、7B。

这四款模型消费级显卡即可运行,适用于笔记本电脑、手机、智能座舱、智能家居等低功耗场景,支持垂直领域低成本微调。

目前已在Github和Huggingface等开源社区上线,Arm、高通、Intel、联发科技等多个消费级终端芯片平台宣布支持部署。

腾讯混元0.5B、1.8B、4B、7B模型发布并开源:消费级显卡即可运行

这四款均属于融合推理模型,推理速度快、性价比高,用户可按需选择快思考或慢思考模式。

用户可根据使用场景灵活选择模型思考模式——快思考模式提供简洁、高效的输出;而慢思考涉及解决复杂问题,具备更全面的推理步骤。

在语言理解、数学、推理等领域表现出色,在多个公开测试集上领先同尺寸模型。

腾讯混元0.5B、1.8B、4B、7B模型发布并开源:消费级显卡即可运行

只需单卡即可部署,部分PC、手机、平板等可直接接入,对主流推理框架和多种量化格式兼容性强。

具备突出的agent和长文能力,原生长上下文窗口达256k,意味着模型可以一次性记住并处理相当于40万中文汉字或50万英文单词的超长内容,相当于一口气读完3本《哈利波特》小说,并且能记住所有人物关系、剧情细节,还能根据这些内容讨论后续故事发展。

腾讯混元0.5B、1.8B、4B、7B模型发布并开源:消费级显卡即可运行

应用层面,四款小尺寸模型都能够满足从端侧到云端、从通用到专业的多样化需求,并且已经在腾讯多个业务中应用,可用性和实用性经过了实践的检验,是真正实用的模型。

例如,依托模型原生的超长上下文能力,腾讯会议AI小助手、微信读书AI问书AI助手均实现对完整会议内容、整本书籍的一次性理解和处理。

在端侧应用上,腾讯手机管家利用小尺寸模型提升垃圾短信识别准确率,实现毫秒级拦截,隐私零上传;腾讯智能座舱助手通过双模型协作架构解决车载环境痛点,充分发挥模型低功耗、高效推理的特性。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:建嘉

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...