WEKA推出全新的WEKApod AI存储服务器设备

来源:网界网 | 2024-10-31 17:40:13

  Fast Filer 软件运输商 WEKA 设计了两个版本的 WEKApod 存储设备,用于 AI 训练和推理。

  WEKApod 设备是一种存储服务器设备,能够存储数据并将其推送到 GPU 服务器,例如 Nvidia 的 SuperPOD。每个设备都由预配置的硬件 + WEKA 数据平台软件存储节点组成,旨在简化和加快部署。1 PB 的 WEKApod 配置从 8 个存储节点开始,可以横向扩展到数百个。

  WEKApod Nitro 配置使用 PCIe gen 5 总线,适用于大规模企业 AI 部署。WEKApod Prime 配置使用速度较慢的 PCIe gen 4 总线,适用于较小规模的 AI 部署。

  WEKA 首席产品官 Nilesh Patel 在一份声明中声称:“生成式 AI 应用程序和多模态检索增强生成的加速采用以任何人都无法预料的速度渗透到企业中,推动了对经济实惠、高性能和灵活的数据基础设施 [系统] 的需求,这些系统提供极低的延迟,大大降低了生成的每个代币的成本,并且可以扩展......WEKApod Nitro 和 WEKApod Prime 提供无与伦比的灵活性和选择,同时提供卓越的性能、能源效率和价值。

  WEKA 表示,其数据平台软件提供专为最苛刻的 AI 工作负载构建的可扩展 AI 原生数据基础设施,高效、可持续地加速 GPU 利用率和检索增强生成 (RAG) 数据管道,并为 AI 模型检查点提供高效的写入性能。

  WEKApod Nitro 可扩展,可在集群中提供超过 1800 万的 IOPS,并通过了 SuperPOD 认证。WEKApod Prime 可以扩展到高达 320 GBps 的读取带宽、96 GBps 的写入带宽和高达 1200 万 IOPS,适用于数据处理要求不太极端的客户。

相关阅读

每日精选