受HBM3e拖累,三星利润可能将大幅下滑
CBISMB
责任编辑:邹大斌
ISMB
时间:2025-07-08 09:12
三星 HBM AI
在人工智能淘金热中,除了销售“铲子”——即GPU——之外,最赚钱的事就是制造使这些GPU成为可能的硅片。然而,尽管台积电和SK海力士持续从英伟达的成功中获利,三星却远没有那么幸运。
这家韩国巨头是全球最大的内存模块供应商,但迄今为止一直难以获得英伟达的批准,将其最新一代高带宽内存(HBM3e)用于英伟达最高端的AI加速器和Blackwell GPU中。
该公司今天发布了第二季度业绩指引,预计营收约为74万亿韩元(538亿美元),运营利润为4.6万亿韩元(33亿美元)。
这一利润远远低于此前金融分析师向路透社透露的63000亿韩元的预期。这将是三星自2023年第四季度24300亿韩元(17.5亿美元)以来的最低利润,并且与2025年第一季度的66900亿韩元(49亿美元)相比大幅下滑。
内存是一个大宗商品市场,因此买家很少只与单一供应商打交道。为此,三星一直在努力使其“增强型”HBM3e堆栈通过认证,以用于英伟达的旗舰芯片。这些模块已经交付给客户一段时间了,三星首席财务官朴顺德在四月底的第一季度财报电话会议上对分析师表示。
他说:“客户一直在推迟需求,等待我们增强型HBM产品的计划发布。”
虽然三星可能正在向客户发送样品,但这并不意味着其产品符合预期。事实上,据韩国媒体报道,引用证券分析师的消息称,三星在6月份第三次未能通过英伟达产品的硅片认证,下一次尝试定于9月。
三星在推出HBM3e方面面临的挑战对于竞争对手SK海力士来说是一大利好,后者已成为英伟达该内存的主要供应商。美光也设法抓住了时机,其12层的HBM3e堆栈已被计划用于英伟达即将推出的Blackwell Ultra B300和GB300加速器中。
我们目前尚不清楚三星内存未能通过认证的具体原因,但据报道这与其发热和功耗有关。
HBM制造商通过垂直堆叠DRAM来组装内存模块,这种方法可以提高带宽。
以英伟达Blackwell GPU中的HBM3e为例,其中每个Chiclet大小的八个模块分别提供24GB至36GB的容量和高达1TB/s的带宽。相比之下,目前最快的非HBM服务器内存MRDIMM 8800提供了更高的容量,但带宽仅略高于68GB/s。
正如你所预料的那样,HBM也有一些权衡之处。将如此高的带宽压缩到如此小的封装中意味着这些芯片需要更多的电力,并且通常会发热较高。更复杂的是,这些模块通常依赖于先进的封装技术,例如台积电的CoWoS,才能集成进GPU中。
三星明显难以达到英伟达的标准,这对于AMD来说是个好消息——在HBM需求如此旺盛的情况下,似乎AMD愿意接受其更大竞争对手不愿采用的产品。
据报道,AMD在其最近发布的MI350系列GPU中至少从三星采购部分12层HBM3e内存。
虽然三星或许能够将一些HBM3e卖给AMD,但这家芯片设计公司的Instinct加速器市场份额相较英伟达而言微乎其微。作为参考,英伟达去年的GPU销售额推动其数据中心收入达到1152亿美元,而AMD的Instinct加速器在其数据中心销售的126亿美元中仅占略超过50亿美元。
此外,对于三星来说更为复杂的情况是,行业已经在向HBM3e之后的技术迈进。AMD的MI400系列和英伟达的Rubin GPU都将在明年转向HBM4。
三星预计将在今年下半年开始HBM4模块的大规模生产,并相信相关产品的收入将在2026年开始流入。