正文内容 评论(0)
由 NVIDIA AI 赋能的工具和技术为混合式 AI 工作流提供支持。
编者注:本文属于《解码 AI》系列栏目,该系列的目的是让技术更加简单易懂,从而解密 AI,同时向 RTX PC 用户展示全新硬件、软件、工具和加速特性。
生成式 AI 为 Windows 应用和游戏带来了各种新功能。它为无脚本、动态的 NPC 提供动力,助力创作者生成新颖的艺术作品,并帮助游戏玩家将帧率提升高达 4 倍。但这些不过是冰山一角。
随着生成式 AI 的功能和使用场景不断增加,相关计算需求也水涨船高。
混合式 AI 将 NVIDIA RTX 的端侧 AI 加速与云端的可扩展 GPU 相结合,可有效且高效地满足 AI 工作负载的需求。
混合式 AI,鱼与熊掌兼得
随着 AI 的普及,应用开发者正在寻找各种可行的部署方式:在 RTX GPU 上本地运行的 AI 兼具高性能和低延迟,即使在离线情况下也可随时使用。另一方面,在云端运行的 AI 能够运行规模更大的模型并且可以跨多个 GPU 进行扩展,还可以同时为多个用户提供服务。在许多情况下,一个应用程序会同时使用这两种方式部署的服务。
混合式 AI 组合与协调本地 PC 和工作站的算力与云的扩展能力。它可以根据特定使用场景、成本和性能要求灵活优化 AI 工作负载,帮助开发者确保 AI 任务在其特定应用场景下最合适的设备上运行。
无论 AI 是在本地还是在云端运行,它都可以通过 NVIDIA GPU 和 NVIDIA 的 AI 技术栈(包括 TensorRT 和 TensorRT-LLM)进行加速。这意味着我们可以减少无谓的等待时间,并可为用户提供更多的先进 AI 功能。
这一系列 NVIDIA 工具和技术可为创作者、游戏玩家和开发者的混合式 AI 工作流提供支持。
理想的云端应用由 RTX 实现
生成式 AI 已经证明它能够为艺术家的创作提供灵感,加速设计,启发构思。此类解决方案包括 iStock 推出的云端生成式 AI,这是一项由 NVIDIA Edify 驱动的生成式摄影图片服务,专为艺术家打造。另一方面,艺术家也为该生成式 AI 的模型训练贡献了各种授权内容,而做出贡献的艺术家也会因此获得报酬。
iStock 的生成式 AI 不仅可以用于图像生成,还可以为艺术家提供丰富的工具,以便他们探索各种风格和变化,修改图像的某个部分或扩展画布。借助这些工具,艺术家可以快速完成多次概念设计,并将创意转变为现实方案。
创意概念准备完成后,艺术家就可以将其转移到本地设备上。 RTX 助力的 PC 和工作站可在超过 125 款热门创意应用中为艺术家提供 AI 加速,帮助他们最大化实现自己的创意愿景:无论是使用本地 AI 工具在 Photoshop 中创建令人惊叹的艺术作品,在 DaVinci Resolve 中使用视差效果为图像制作动画,还是使用光线追踪加速在 Blender 中借助参考图像构建 3D 场景,抑或是使用 Optix 进行 AI 降噪。
云端 ACE 让 NPC 栩栩如生
混合式 AI 还通过 NVIDIA ACE 实现了交互式 PC 游戏的新高度,让游戏开发者和数字创作者能够将先进的生成式 AI 模型集成到 RTX AI PC 上的数字虚拟形象中。
NVIDIA ACE NIM 由 AI 神经网络提供支持,让开发人员和设计师创建能够理解并响应人类玩家文本和语音的非玩家角色(NPC)。NVIDIA ACE NIM 可利用 AI 模型(包括语音转文本模型)来处理人类语音输入,以便 NPC 实时生成回应。
在这些新技术的加持下,NPC 的回应将不再受限于预定义的脚本。ACE NIM 既可以在 RTX GPU 设备上本地运行,也可以部署在云端,基于各种计算选项实现动态、逼真的交互。
可灵活部署的混合式开发者工具
混合式 AI 还可以帮助开发者构建和调整新的 AI 模型。NVIDIA AI Workbench 可帮助开发者在 RTX GPU 上快速创建、测试和定制预训练生成式 AI 模型和 LLM。数据科学家和开发者可通过 NVIDIA AI Workbench 简化对 Hugging Face、GitHub 和 NVIDIA NGC 等热门仓库的访问,并且能够通过简化的用户界面轻松地复现、协作和迁移项目。
当有额外的性能需求时,项目还可轻松扩展至数据中心(无论是公有云还是 NVIDIA DGX Cloud ),之后部署到 PC 或工作站上的本地 RTX 系统进行推理和轻量定制。数据科学家和开发者可以利用预先构建的 Workbench 项目,使用检索增强生成 (RAG) 与文档交互,使用微调功能自定义 LLM,通过流畅的 CPU 到 GPU 转换加速数据科学工作负载等等。
混合式 RAG Workbench 项目提供可自定义的 RAG 应用,以便开发者自主运行和调整。他们可以在本地对文档进行向量化,并在本地 RTX 系统或托管在 NVIDIA API Catalog 上的接入点运行推理,或使用 NVIDIA NIM 微服务。开发者可以调整混合式 RAG Workbench 项目,以便使用各种模型、接入点和容器。他们还可以通过该项目量化要在所选 GPU 上运行的模型。
NVIDIA GPU 可在 NVIDIA GeForce RTX PC 和 RTX 工作站本地以及云端为各种出色的 AI 解决方案提供支持。借助不断发展的混合式 AI 工作流,创作者、游戏玩家和开发者可以充分发挥本地和云端的强大能力。
请订阅《解码 AI》时事通讯,我们每周都会将新鲜资讯直接投递到您的收件箱。
###
本文收录在
#快讯
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...