美光科技周一表示,其 HBM3E 内存已开始量产。美光HBM3E 已知良好堆栈芯片 (KGSD) 将用于 Nvidia 的 H200 计算 GPU, 用于人工智能 (AI) 和高性能计算 (HPC) 应用,该产品将于 2024 年第二季度发货。
美光宣布正在量产 24 GB 8-Hi HBM3E 设备,数据传输速率为 9.2 GT/s,每台设备的峰值内存带宽超过 1.2 TB/s。与 HBM3 相比,HBM3E 将数据传输速率和峰值内存带宽提高了 44%,这对于 Nvidia H200 等需要大量带宽的处理器来说尤其重要。
Nvidia的H200产品依赖于Hopper架构,提供与H100相同的计算性能。同时,它配备了141GB HBM3E内存,带宽高达4.8TB/s,较H100的80GB HBM3显着升级,带宽高达3.35TB/s。
随着 2024 年 3 月即将发布的 36 GB 12-Hi HBM3E 产品,美光的 AI 内存路线图得到进一步巩固。同时,这些设备将用于何处仍有待观察。
美光使用其 1β (1-beta) 工艺技术来生产 HBM3E,这对该公司来说是一项重大成就,因为它在数据中心级产品中使用了最新的生产节点,这是对制造技术的证明。
领先于竞争对手 SK 海力士和三星开始量产 HBM3E 内存,对于美光来说是一项重大成就,目前美光在 HBM 领域占有 10% 的市场份额。此举对该公司至关重要,因为它使美光能够比竞争对手更早推出优质产品,从而有可能增加其收入和利润率,同时获得更大的市场份额。
美光科技执行副总裁兼首席商务官 Sumit Sadana 表示: “美光科技凭借这一 HBM3E 里程碑实现了三连胜:上市时间领先、一流的行业性能以及差异化的能效概况。人工智能工作负载严重依赖内存带宽和容量,美光处于有利位置,可以通过我们业界领先的 HBM3E 和 HBM4 路线图以及我们针对人工智能应用的完整 DRAM 和 NAND 解决方案组合来支持人工智能未来的显着增长. ”