正文内容 评论(0

Microsoft Azure机器学习采用NVIDIA AI为Word编辑器提供语法建议
2020-10-22 10:31:53  作者:cici 编辑:cici     评论(0)点击可以复制本篇文章的标题和链接

实时语法检查模型预计每年运行超过5000亿次查询

[MD:Title]

实时语法检查模型预计每年运行超过5000亿次查询。

有人说好文章都是编辑出来的。幸运的是,为了满足全球读者的挑剔要求,微软正在为数百万人提供AI语法编辑器。

该工具如同一名优秀的编辑一样快速而专业。这是由于微软编辑器在Microsoft Word在线版中对语法进行了改进,可以运用NVIDIA Triton 推理服务器、ONNX 运行时和Azure AI中的微软Azure 机器学习,来提供这种丰富的智能体验。

10月5日,NVIDIA首席执行官黄仁勋在GTC大会上的主题演讲中宣布了这一新讯。

日常工作中的AI应用

微软为Microsoft Office生产力应用用户提供强大的AI性能。这些节省时间的新功能包括实时语法建议、文档内问题解答(如 “完全匹配”之外的Bing文档搜索),以及帮助将句子填写完整的文本预测。

唯有通过深度学习和神经网络,才能实现这些提高生产力的功能。例如,与基于传统规则型逻辑构建的服务不同,在纠正语法方面,Word在线编辑器可以理解句子的上下文,并提供适当的单词选择建议。

[MD:Title]

这些深度学习模型可能涉及数亿个参数,它们必须具有可扩展性,并提供实现最佳用户体验所需的实时推理。预计仅用于语法检查的微软编辑器AI模型每年就要对Word在线处理超过5000亿次查询。

但这种规模的部署可能会大幅增加深度学习的预算。幸运的是,可通过Azure机器学习访问的NVIDIA Triton的动态批处理和并发模型执行功能将成本降低了约70%,并且在单个NVIDIA V100 Tensor Core GPU上实现了每秒450次查询的吞吐量,响应时间在200毫秒以内。

Azure机器学习具备管理模型生命周期所需的规模和能力,比如版本管理和监控。

在Azure 机器学习上通过Triton实现高性能推理

随着机器学习模型规模的不断扩大,模型训练和部署过程对GPU的需求比以往任何时候都更加迫切。为了将AI部署到生产中,企业机构正在寻找可扩展的推理服务解决方案、对多个框架后端的支持、最佳的GPU和CPU利用率以及机器学习生命周期管理。

Azure 机器学习中的NVIDIA Triton和ONNX 运行时堆栈提供可扩展的高性能推理。Azure机器学习用户可以利用Triton对多种框架的支持、实时、批和流推理、动态批处理以及并发执行等性能。

借助AI进行Word创作

作家和诗人Robert Graves曾说过:“没有写得好的文章,只有改得好的文章。”换言之,就是要对写好的文章进行编辑和润色。

您可以使用Word在线编辑器同时进行这两项工作。尽管编辑器是Word中第一个通过Triton和ONNX 运行时增加速度与广度的功能,但它仅仅是更多功能的开始。

[MD:Title]

【本文结束】如需转载请务必注明出处:快科技

责任编辑:菲尔文章纠错

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |
本文收录在
#快讯

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...