Pure Storage 和 Nvidia 联合发布了一个新的 RAG 管道,用于优化企业的大型语言模型。两家公司还透露,Pure Storage 已获得 Nvidia OVX 认证。
针对 AI 推理优化的 RAG 管道
生成式人工智能要兑现其变革企业的承诺,首先需要满足企业的需求。大型语言模型需要特定于业务的上下文,以最大限度地减少幻觉并提供有针对性的业务价值。检索增强生成(RAG)是法学硕士根据特定业务数据进行微调的方式。
在 GTC 上,Pure Storage 和 Nvidia 展示了 RAG 管道,该管道可简化并加速用于 AI 推理的 RAG 部署。该管道旨在通过将法学硕士与外部、特定和专有数据源集成来增强法学硕士,提高模型的准确性、及时性和相关性。
该管道利用 Nvidia GPU 执行计算任务和 Pure Storage 的 FlashBlade//Sall-flash 企业存储,有效管理大型矢量数据库及其关联的原始数据。这种集成确保了数据处理和检索任务快速准确地运行。
Pure 对 GenAI RAG 嵌入和索引进行了可扩展性测试,比较了使用本地闪存存储与具有本机 S3 接口的 Pure Storage FlashBlade//S 的性能。
Pure 的测试表明,使用 FlashBlade//S 时,文档嵌入和索引过程的完成速度提高了 36%,证明快速的网络全闪存存储可以显着加速 RAG 文档嵌入活动。
更进一步,Pure Storage 和 Nvidia 宣布他们正在合作提供特定于垂直行业的 RAG 解决方案。最初,他们正在提供金融服务 RAG 解决方案,以提供对大型数据集的快速、准确的总结和分析,超越了标准的法学硕士性能。为医疗保健和公共部门发布类似解决方案的计划正在进行中。
经认证的 Nvidia OVX 参考架构
Nvidia 的 OVX 认证可确保人工智能基础设施(包括服务器和存储)能够满足在 Nvidia 的高级计算环境上运行所需的特定性能、可靠性和兼容性标准。
Pure Storage与Nvidia合作获得的OVX认证表明,Pure Storage的存储解决方案专门为由Nvidia L40S GPU供电并与FlashBlade//s集成的OVX服务器设计,在性能、可靠性和兼容性方面符合Nvidia的严格标准。
该认证对于企业选择部署人工智能应用程序的基础设施至关重要,包括用于定制LLM的生成人工智能和RAG。该认证补充了Pure Storage之前对Nvidia DGX BasePOD的认证,为人工智能客户提供了额外的选择。
分析师的观点
随着网络速度的提高,将数据从存储器快速移动到GPU变得至关重要。简化企业人工智能任务,如RAG,在很大程度上有助于提高整个数据管道的效率。看到英伟达与Pure等技术提供商合作优化RAG管道并不奇怪。英伟达正在与WEKA、NetApp、Dell Technologies和DDN进行类似的合作。
通过增强RAG管道的性能,企业可以将其整个文档存储库处理到矢量数据库中,并在几秒钟内进行查询,从而加快所选人工智能应用程序的价值实现。Pure Storage解决方案的灵活性和可扩展性使其成为希望将LLM和RAG纳入其生产流程的企业的理想选择。
随着对人工智能的需求持续增长,企业将越来越多地寻找支持人工智能模型快速开发和部署的基础设施。Pure Storage的OVX认证将其定位为利用人工智能获得竞争优势的企业的首选。
Pure Storage在人工智能领域的创新表明,该公司在解决人工智能驱动企业的复杂需求方面是一个积极主动的参与者,拥有持续增长和市场渗透的明确战略。
披露:Steve McDowell是一名行业分析师,NAND Research是一家行业分析师公司,与许多科技公司(包括本文中提到的公司)一起从事或曾经从事研究、分析和咨询服务。McDowell先生不在本文提及的任何公司持有任何股权。