HBM之争,升级

格隆汇
昨天

生成式人工智能革命揭示了一个残酷的现实:如果无法满足“野兽”的需求,那么原始计算能力就毫无意义。在拥有数千个 GPU 的庞大 AI 数据中心中,真正的瓶颈并非处理速度,而是内存带宽。

尽管工程师们几十年来一直痴迷于 FLOPS,但该行业现在面临着一条新的铁律:如果你不能足够快地移动数据,那么你价值数万亿美元的人工智能基础设施就会变成昂贵的纸镇。


HBM,SK海力士领先


High Bandwidth Memory 4 (HBM4) 即将问世,这是一种 3D 堆叠内存技术,有望实现前所未有的单芯片带宽。这将决定哪些公司将在 AI 领域占据主导地位,或从中消失。这不仅仅是又一次渐进式升级;它决定了下一个突破性 AI 模型的训练时间是几周还是几个月,决定了推理的盈利能力还是每次查询都烧钱。

今年早些时候,JEDEC 最终确定了用于高性能 AI 的 HBM4 内存标准。新版本比前代 HBM3 内存标准提供了更高的单引脚速度和接口宽度,目标是在 2,048 位接口上实现每引脚 8 Gbps 的传输速度,每个内存堆栈的带宽达到 2 TB/s。实际上,这大约是当前 HBM3 芯片带宽的两倍,这对于 AI 加速器来说将是一个重大的进步。

另一项改进在于容量的提升。HBM4 支持高达 16 层的堆叠(16 个显存芯片绑定),每个芯片的密度为 24 Gb 或 32 Gb,每个堆叠最高可达 64 GB。换句话说,单个 HBM4 模块可以容纳的数据量相当于目前高端 GPU 的整个显存容量。

尽管速度提升,HBM4 的设计仍兼顾了能效。它允许更低的 I/O 电压和核心电压,从而提高能效。这些改进正是为了满足生成式 AI 的需求。训练大型语言模型或运行大型推荐系统需要不断在 GPU 之间移动 TB 级的数据。更快、更大的内存可以减少这一瓶颈,使每个 GPU 能够更快地处理数据。

然而,开发和制造 HBM4 面临着更大的挑战。目前只有三家内存供应商——SK 海力士、美光和三星——拥有批量生产 HBM4 所需的 DRAM 和 3D 堆叠专业知识。它们能否实现量产,将直接影响英伟达、AMD博通等公司未来 GPU 和 AI 加速器的 AI 硬件路线图。

SK海力士无疑是HBM4领域的领跑者。该公司在HBM领域拥有多项领先记录。2015年,该公司为AMD GPU供应了第一代HBM,并在HBM2、HBM2E和HBM3方面一直领先于主要客户。根据Counterpoint Research的数据,SK海力士在2025年第二季度的市场份额为62%,远远领先于其竞争对手。这种优势源于其与英伟达的紧密联盟。

早在 JEDEC 正式规范发布之前,SK 海力士就已开始提供 HBM4 样品。事实上,该公司于 2025 年 3 月交付了全球首批 12 层 HBM4 样品,表明其堆叠技术已准备就绪。SK 海力士宣布已完成 HBM4 设计的开发,并已做好量产准备。

SK海力士HBM开发负责人Joohwan Cho表示:“通过及时提供满足客户在性能、功率效率和可靠性方面需求的产品,公司将满足产品上市时间并保持竞争地位。”

到2025年9月,SK海力士确认其HBM4已满足所有规格要求。其每针运行速度为10 GT/s,比基准的8 GT/s快25%。10 GT/s的速度等级使SK海力士完全符合Nvidia对Blackwell一代GPU的要求。SK海力士暗示其设计可能超越JEDEC规范,可能是为了给Nvidia提供所需的性能提升空间。

SK 海力士正在使用其成熟的 1b DRAM 工艺(第五代 10nm 节点)来制造 HBM4 DRAM 芯片。该节点比尖端技术略老,但它具有较低的缺陷密度和更高的良率,这在堆叠十几个芯片时至关重要。对于位于 DRAM 层下方的基础逻辑芯片,SK 海力士尚未公开披露其节点。然而,有猜测称其可能采用台积电 12nm 或 5nm 工艺。

该公司的理念似乎是“先保证可靠性,再提升性能”,这与HBM保守而稳健的领导风格相符。截至2025年底,SK海力士已准备好在客户需要时立即提升HBM4的产量。尽管该公司尚未公布具体的发货日期,但所有迹象都表明,在最终认证完成后,将于2026年初开始批量出货。

Nvidia 的旗舰 GPU 显然是首选。业内报告显示,SK 海力士 HBM4 将首先集成到 Rubin GPU 平台。此外,鉴于 Nvidia 和 SK 海力士之间的密切关系,他们很可能在 2026 年为 Blackwell GPU 提供大部分初始内存模块。这使得 SK 海力士在率先大规模出货 HBM4 方面占据了主导地位。

SK海力士的市场领先地位也转化为了今年可观的财务收益。2025年第二季度,该公司报告称其77%的销售额来自HBM及相关AI内存。尽管目前占据主导地位,但HBM4的供应竞争尚未结束。竞争对手正在奋力追赶。


美光三星,来势汹汹


在SK海力士遥遥领先之际,三星和美光紧随其后。

美光在 HBM 领域起步较晚。过去一年,该公司的市场份额超过了三星,达到 21%,而三星仅为 17%。考虑到几年前美光几乎没有 HBM 业务,这是一个重大进展。而这一增长的催化剂是生成式人工智能 (Generic AI) 需求的激增。

美光的成功主要归功于HBM3E。它与多家客户达成了供应协议,其中包括六家涵盖GPU和加速器的HBM客户。美光成功成为英伟达AI GPU的供应商。这是因为英伟达历来从两家供应商采购内存以实现冗余,而美光与SK海力士一起分得了一杯羹。

预计到2025年末,美光的HBM业务将大幅扩张。该公司在2025年9月的季度报告中称,HBM业务的营收已接近20亿美元。这意味着HBM在很短的时间内就从一个小众产品发展到占公司总营收的两位数比例。美光甚至表示,其2025年全年的HBM产量已全部售罄,2026年的订单也基本被预订一空。

乘着这股势头,美光科技于2025年6月开始交付HBM4样品。该技术为主要客户提供了36 GB、12层堆栈的容量,据报道其中一家客户是英伟达。在过去的几个月里,美光科技进一步改进了芯片。到2025年第四季度,美光科技宣布其HBM4样品的运行速度将超过每针11 Gbps,每堆栈吞吐量超过2.8 TB/s。

美光HBM4很可能在2026年投入量产。该公司已获得2026年价值数十亿美元的HBM3E订单,包括云计算巨头和GPU供应商在内的主要买家都指望美光成为其2026年供应链的一部分。鉴于英伟达预计将从SK海力士和美光两家公司采购Blackwell内存,如果SK海力士无法满足所有需求,或者英伟达需要第二供应商的灵活性,美光将填补这一空白。

至于另一家韩国巨头三星,也一直忙于 HBM 业务。因为在第四代 HBM 的竞争中,三星发现自己处境特殊,不得不奋起直追。尽管三星拥有强大的制造实力,但在早期的 HBM 领域却落后了。

三星的困境在 HBM3E 上愈发明显。SK 海力士和美光为客户量产了 8 层和 12 层 HBM3E,而三星的 12 层 HBM3E 却难以通过认证。据报道,三星耗时 18 个月,并多次尝试才达到 Nvidia 对 HBM3E 的质量和性能标准。到 2025 年第三季度,三星终于通过了 Nvidia 的验证,其第五代 HBM3E 12 层 HBM3E 通过了所有测试。

到目前为止,三星 HBM 仅出现在 AMD 的 MI300 系列加速器中。然而,在获得 Nvidia 认证后,该公司已同意购买 3 万至 5 万单元的12层高HBM3E,用于液冷 AI 服务器。三星 HBM3E 也将于 2025 年中期为 AMD 加速器出货。

造成这种滞后的关键挑战之一是,三星试图将尖端的1c DRAM工艺(第六代10纳米节点)应用于其12层HBM3E和即将推出的HBM4,但却遇到了良率问题。截至2025年7月,1c的试运行良率仅为65%,这对于量产来说是一个很大的问题。三星不得不重新校准和修改DRAM设计,改进基片,并增强热管理。

三星计划在 2026 年上半年开始量产 HBM4。2025 年第三季度,三星已开始向英伟达 (Nvidia) 交付大量 HBM4 样品,用于早期认证。此外,该公司还拥有一张战略王牌,那就是与 AMD(以及 OpenAI)深化的合作伙伴关系。2025 年 10 月,有消息称AMD 已签署一项重要协议,将向 OpenAI 供应 Instinct MI450 GPU 系统。据报道,三星是 AMD MI450 加速器 HBM4 的主要供应商。


鹿死谁手?


最终,HBM4 供应的竞争并非零和游戏。三家供应商都将竭尽全力,为生成式 AI 提供最高性能的内存模块。真正的赢家将是那些能够克服技术挑战、实现规模化交付的企业。

为了扩大市场,三家公司都取得成功将是理想之选。这将缓解硬性限制,并提升研究人员和企业的AI能力。无论如何,2026年将是这场内存竞赛的决定性一年。值得关注的是,哪家供应商最终能率先实现量产,这将揭示谁才是这轮竞赛的真正赢家,以及谁的AI产品计划可能需要调整,因为他们押注了失败者。

免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。

热议股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10