正文内容 评论(0

点亮未来: TensorRT-LLM 更新加速AI推理性能,支持在RTX驱动的 Windows PC 上运行新模型
2023-11-16 10:53:22  出处:快科技 作者:Kew 编辑:Kew     评论(0)点击可以复制本篇文章的标题和链接

作者:Jesse Clayton

链接:https://blogs.nvidia.com/blog/2023/11/15/ignite-rtx-ai-tensorrt-llm-chat-api

Windows PC 上的AI标志着科技史上的关键时刻,它将彻底改变玩家、创作者、主播、上班族、学生乃至普通 PC 用户的体验。

AI为1亿多台采用RTX GPU的Windows PC和工作站提高生产力带来前所未有的机会。NVIDIA RTX 技术使开发者更轻松地创建AI应用,从而改变人们使用计算机的方式。

在微软Ignite大会上发布的全新优化、模型和资源将更快地帮助开发者提供新的终端用户体验。

TensorRT-LLM 是一款提升AI推理性能的开源软件,它即将发布的更新将支持更多大语言模型,在RTX GPU 8GB及以上显存的PC和笔记本电脑上使要求严苛的AI工作负载更容易完成。

Tensor RT-LLM for Windows即将通过全新封装接口与 OpenAI 广受欢迎的聊天 API 兼容。这将使数以百计的开发者项目和应用能在RTX PC 的本地运行,而非云端运行,因此用户可以在 PC 上保留私人和专有数据。

定制的生成式AI需要时间和精力来维护项目。特别是跨多个环境和平台进行协作和部署时,该过程可能会异常复杂和耗时。

AI Workbench 是一个统一、易用的工具包,允许开发者在 PC 或工作站上快速创建、测试和定制预训练生成式 AI 模型和 LLM。它为开发者提供一个单一平台,用于组织他们的AI项目,并根据特定用户需求来调整模型。

这使开发者能够进行无缝协作和部署,快速创建具有成本效益、可扩展的生成式AI模型。加入抢先体验名单,成为首批用户以率先了解不断更新的功能,并接收更新信息。

为支持AI开发者,NVIDIA与微软发布DirectML增强功能以加速最热门的基础AI模型之一的 Llama 2 。除了全新性能标准,开发者现在有更多跨供应商部署可选。 

便携式AI

10月,NVIDIA发布TensorRT-LLM for Windows -- 一个用于加速大语言模型(LLM)推理的库。

本月底发布的TensorRT-LLM v0.6.0 更新将带来至高达5倍的推理性能提升,并支持更多热门的 LLM,包括全新Mistral 7B 和 Nemotron-3 8B。这些 LLM 版本将可在所有采用8GB及以上显存的 GeForce RTX 30 系列和 40 系列 GPU 上运行,从而使最便携的 Windows PC设备也能获得快速、准确的本地运行 LLM 功能。

点亮未来: TensorRT-LLM 更新加速AI推理性能,支持在RTX驱动的 Windows PC 上运行新模型
TensorRT-LLM v0.6.0 带来至高达5倍推理性能提升

新发布的TensorRT-LLM可在 /NVIDIA/TensorRT-LLM GitHub代码库中下载安装,新调优的模型将在 ngc.nvidia.com 提供。

从容对话

世界各地的开发者和爱好者将 OpenAI 的聊天 API 广泛用于各种应用——从总结网页内容、起草文件和电子邮件,到分析和可视化数据以及创建演示文稿。

这类基于云的AI面临的一大挑战是它们需要用户上传输入数据,因此对于私人或专有数据以及处理大型数据集来说并不实用。

为应对这一挑战,NVIDIA即将启用 TensorRT-LLM for Windows,通过全新封装接口提供与 OpenAI 广受欢迎的 ChatAPI 类似的 API 接口,为开发者带来类似的工作流,无论他们设计的模型和应用要在 RTX PC 的本地运行,还是在云端运行。只需修改一两行代码,数百个AI驱动的开发者项目和应用现在就能从快速的本地AI中受益。用户可将数据保存在PC上,不必担心将数据上传到云端。

点亮未来: TensorRT-LLM 更新加速AI推理性能,支持在RTX驱动的 Windows PC 上运行新模型
使用由 TensorRT-LLM 驱动的 Microsoft VS Code 插件 Continue.dev 编码助手 https://images.nvidia.cn/cn/youtube-replicates/-P17YXulhDc.mp4

此外,最重要的一点是这些项目和应用中有很多都是开源的,开发者可以轻松利用和扩展它们的功能,从而加速生成式AI在RTX 驱动的Windows PC上的应用。 

该封装接口可与所有对 TensorRT-LLM 进行优化的 LLM(如,Llama 2、Mistral 和 NV LLM)配合使用,并作为参考项目在 GitHub 上发布,同时发布的还有用于在 RTX 上使用 LLM 的其他开发者资源。

模型加速 

开发者现可利用尖端的AI模型,并通过跨供应商 API 进行部署。NVIDIA和微软一直致力于增强开发者能力,通过 DirectML API 在 RTX 上加速 Llama 。

在10月宣布的为这些模型提供最快推理性能的基础上,这一跨供应商部署的全新选项使将AI引入 PC 变得前所未有的简单。

开发者和爱好者可下载最新的ONNX运行时并按微软的安装说明进行操作,同时安装最新NVIDIA驱动(将于11月21日发布)以获得最新优化体验。

这些新优化、模型和资源将加速AI功能和应用在全球1亿台RTX PC上的开发和部署,一并加入400多个合作伙伴的行列,他们已经发布了由RTX GPU加速的AI驱动的应用和游戏。 

随着模型易用性的提高,以及开发者将更多生成式AI功能带到RTX驱动的 Windows PC上,RTX GPU 将成为用户利用这一强大技术的关键。 

 

【本文结束】如需转载请务必注明出处:快科技

责任编辑:上方文Q

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |
本文收录在
#NVIDIA

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...