AI 半导体市场目前主要集中在 Nvidia 和高带宽内存 (HBM),预计未来将向 DRAM 和其他领域多元化。
3月28日,成均馆大学化学工程学院教授权锡俊在参加韩国投资信托管理公司主办的2024年ACE半导体新闻发布会时表示,“‘AI半导体’一词被广泛用来指代用于各种用途的芯片,例如学习、推理、创建、设备上、服务器和云使用。随着市场多元化,Nvidia 和 HBM 的垄断结构可能会被打破。” Kwon 教授是一位领先的半导体专家,也是《半导体的三个王国》一书的作者。
Kwon教授预测,由于不可能有一种通用芯片能够满足人工智能的所有不同应用,因此对包括DRAM在内的各种产品的需求将会增加。他提到,“三星电子和 Naver 宣布的‘Mach 1’人工智能芯片不采用 HBM,而是使用低功耗 (LP) DDR5 DRAM。与 HBM 相比,DDR5 的带宽较低,但价格更便宜且功耗更低,随着此类模型的出现,这可能会导致 AI 芯片的多样化。”
预计今年内存业务将有所改善,三星电子由于其早期投资,有望从 DRAM 中获得可观的收益。随着兴趣从 HBM 转移,HBM 和 DRAM 之间的价格差距从 5-6 倍缩小到 2-3 倍,生产稳定产量的 DRAM 可能会变得有利。三星电子作为 HBM 的后来者,也可能会与 AMD 等公司进行战略合作。”Kwon 教授补充道。