正文内容 评论(0)
二、登上端侧AI新高度:330亿参数大模型轻松搞定
天玑9300集成了全新的第七代APU 790 AI处理器,行业首款搭载了硬件生成式AI引擎,同时集成性能核心、通用核心,全链路针对生成式AI进行优化,整数、浮点运算性能都提升了2倍,功耗则降低了45%。
天玑9300目前已经成功运行330亿参数的大模型,相比骁龙8 Gen3 100亿遥遥领先,而且与vivo深度合作,实现了70亿参数大语言模型端侧落地、130亿参数大语言模型端侧运行。
天玑9300重点解决了端侧AI三大痛点:内存限制、生成速度偏慢、大模型应用类型受限。
针对手机内存容量限制,天玑9300支持内存硬件压缩技术NeuroPilot Compression,结合大语言模型的INT4混合精度量化,将大模型的内存占用大幅减少了61%。
比如它还支持了330亿参数大模型,原本需要至少13GB内存,因此对于16GB内存手机来说就完全不够用。
而在联发科的调教下,只需5GB就够了,加上Android系统本身占用4GB、APP应用保活需要6GB,甚至还能富余1GB的自由空间。
针对生成速度问题,天玑9300深度适配Transformer模型,优化Softmax+LayerNorm算子,处理速度提升多达8倍。
此外,天玑9300支持行业速度最快的LPDDR5T 9600Mbps内存,可提供77GB/s带宽,保证AI运算无瓶颈。
正是这些设计,使得天玑9300 70亿参数大模型生成速度达到了每秒20 Tokens,Stable Diffusion 1.5文生图速度可以做到1秒之内。
针对大模型数量在端侧受限的问题,天玑9300拥有行业领先的LoRA(低秩自适应)融合,并首次搭载生成式AI端侧“技能扩充”技术NeuroPilot Fusion,为基础大模型提供更全面的端侧能力,实现多样化的本地内容生成。
以上提及的很多技术和优化,都是联发科NeuroPilot AI开发平台的一部分,可以为开发者提供端侧生成式AI落地的一站式资源,以及诸多案例分享。
目前,联发科端侧生成式AI已有20多个合作伙伴,包括谷歌、Meta、百度、百川、抖音、快手、虎牙、爱奇艺、美图秀秀等等。
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...