• 快科技
  • 中文科技资讯专业发布平台
瑞芯微AI芯片适配百度飞桨 加速AI应用落地
2020-05-14 11:20:30  作者:cici 编辑:cici   点击可以复制本篇文章的标题和链接

AI的重要性,毋庸置疑。被认为是第四次工业革命引擎的AI,正在迎来核心算法突破、计算能力迅速提高、对海量数据充分发掘的关键阶段。在AI时代,深度学习框架和起着承上启下的作用,连接芯片与应用。拥有强大算力的AI芯片加持,AI技术才能得到更广泛普及。

[MD:Title]

5月13日,瑞芯微Rockchip正式宣布,旗下AI芯片RK1808、RK1806适配百度飞桨(PaddlePaddle)开源深度学习平台,充分兼容飞桨轻量化推理引擎Paddle Lite。瑞芯微与百度展开的合作有着一个颇为清晰的目标——为AI行业赋能更多应用场景,加速AI产品落地进程。

[MD:Title]
百度飞桨与瑞芯微兼容性认证书

据了解,瑞芯微的AI芯片RK1808及RK1806,内置独立NPU神经计算单元,INT8 算力高达3.0TOPs。

它们采用22nm FD-SOI工艺,相同性能下的功耗相比主流28nm工艺产品降低约30%,在算力、性能、功耗等指标上均有优异表现。经实测,瑞芯微AI芯片在Paddle Lite中运行MobileNet V1耗时仅为6.5 ms,帧率高达153.8 FPS,二者充分兼容并高效稳定运行。

[MD:Title]

[MD:Title]

从百度方面看,其飞桨产业级深度学习开源平台,有着长时间的深度学习技术研究和产业应用积累、经验。其集深度学习核心训练和预测框架、基础模型库、端到端开发套件、工具组件和服务平台于一体。Paddle Lite是飞桨推出的一套功能完善、易用性强且性能卓越的轻量化推理引擎,支持多种硬件、多种平台,具备轻量化部署、高性能实现等重要特性。

[MD:Title]
瑞芯微RK18xx系列芯片适配Paddle Lite

瑞芯微AI芯片在适配飞桨开源深度学习平台后,有着更为出色的效果。一方面,瑞芯微AI芯片可更好地赋能国内用户的业务需求,为端侧AI提供强劲算力。另一方面,二者的融合能充分发挥软硬件结合的优势,加快开发部署速度,推动更多AI应用的落地。

具体来看,瑞芯微AI芯片在飞桨上的详细操作方法可参考Paddle Lite文档,内容涵盖支持的芯片、设备列表、Paddle模型与算子及参考示例演示等。

[MD:Title]

[MD:Title]
测试设备(RK1808 EVB)

据了解,除RK1808及RK1806芯片解决方案外,瑞芯微旗下搭载NPU的AI系列芯片也将陆续升级适配百度飞桨,进一步深化双方合作关系。可以预见的是,在瑞芯微和百度这对新CP的推动下,AI应用的落地速度将持续加快。

文章价值打分
当前文章打分0 分,共有0人打分
文章观点支持

+0
+0

快科技客户端

扫描安装快科技APP

驱动之家微信公众号

扫描关注驱动之家