正文内容 评论(0)
部署一个既能配音,又能陪聊,还能帮你画画的AI小助手,或许已经成为大家未来的工作目标了。
然而似乎每当我们使用AI应用(比如AI抠图、AI背景替换)时,笔记本电脑似乎很容易就遇到“瓶颈”:不仅会开始卡顿,还呼呼作响,甚至续航时长也开始大幅缩减。
为此,Intel在今年中宣布了AI PC计划,且很快在年底推出了Meteor Lake架构的酷睿Ultra处理器,堪称是有史以来提升最大一代处理器,具体特性如下:
1、Intel 4制程工艺,提升了超过20%的性能和能效。
2、全新三级核心结构,增加AI计算单元NPU。
3、集成显卡性能提升1倍。
其中,最引人注目的便是那颗新加入的“NPU” (神经网络处理单元)。
我们可以将它比作理器里的AI小助手,它的存在就是为了提升用户的AI应用体验。
在发布会中,Intel介绍Ultra处理器的NPU适用于持续的AI和分担AI负载。
不难想象,拥有NPU的AI PC会有如下体验上的提升:
1、更快的语音识别和语音助手响应速度
2、更流畅的人脸识别和解锁
3、更高效的图像识别和处理
4、更智能的背景美化和视频效果
5、甚至可以流畅运行大参数AI模型
最近,我们收到一台搭载Meteor Lake架构酷睿Ultra 155H处理器的华硕灵耀14 2024轻薄本,趁热做了个AI性能和应用测试。
通过UL Procyon AI Inference Benchmark推理性能基准测试(涵盖MobileNetV3、InceptionV4、YOLOV3、DeepLabV3、Real-ESRGAN和ResNet50等多种神经网络模型)发现,Meteor Lake的AI推理能力是Arc iGPU(核芯显卡)为先,NPU其次,最次为CPU。
检测整机功耗发现,NPU的AI计算效能要远高于CPU,且高于GPU(Intel曾表示,NPU整体能耗比相比最多可以提升8倍之多)。
这说明NPU非常适合笔记本电脑这类对能效要求极高的移动设备,可用来承担持续性的低计算量AI应用计算——目的是减少整机功耗,提升续航。
那么,当我们的笔记本电脑拥有NPU后,可能就会有两个比较直观的感受:
1、使用能进行AI运算的程序时,续航不容易“崩”了——NPU的AI运算能效比更高。
2、支持AI运算的AI应用更流畅了——NPU可释放CPU和GPU的运算压力,物尽其能。
不过,实际应用方面笔者尚未测试成功,因为在测试该产品时还处于产品保密阶段,市面大部分应用程序(包括Team、剪映、SD、LLM等)尚未支援NPU硬件加速(仍然主要依靠CPU和GPU计算)。
可以预见的是,随着NPU处理器落地,大多数AI应用将会迅速适配,整机能效会因此得到进一步的提升。不过实际适配结果如何,目前只能说“未来可期”。
总结:
从原理上来说, NPU比通用CPU或GPU更擅长高效地并行完成低精度计算,且NPU在存储方面拥有高带宽、高容量的特性,数据吞吐量大、响应延迟低的特点,对AI应用效率提升起到积极作用。
NPU就像一个效率超高的AI计算专家,让你的本本续航更持久的同时,也能流畅运行虚拟背景、实时美颜等各种酷炫的AI应用。这便是目前NPU在PC设备中发挥的最明显的作用。
理论上,拥有NPU计算单元的PC设备还会拥有更强的AI运算能力,可更高效地处理复杂AI模型,完成快速的计算和反馈。
Intel曾在Ultra发布会上表示,Ultra处理器已经可以运行200亿参数的AI大模型,且还亲自展示了本地大语言模型和文生图等AI应用。
但是说实话,目前本地AI所生成的结果的准确度、复杂度等方面仍不能与参数量更大的云端生成式AI应用相媲美。
如果我们展望未来的话,我相信随着越来越多的AI应用对NPU加以支持,笔记本的续航和性能定会有显而易见的提升(前提是你经常使用此类AI运算的应用)。
且随着NPU单元算力,以及PC设备存储能力的增强,未来在个人电脑上部署一个好用的本地千亿参数量级的AI大模型,实现一个媲美云端AI的智能写作或生图功能,或许不是遥不可及的事情。
最后,未来我们还会持续官网基于NPU加速应用落地的情况,并会持续针对酷睿Ultra处理器产品进行AI功性能和功耗表现等方面的详细的测评。敬请关注PConline的最新内容。
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...