2026年刚开始,美光的高带宽内存产能已售罄。AI带来的内存超级周期不再是分析师PPT上的预测,而是活生生的运营现实——内存从“大宗商品”变成了AI的硬通货。
作者按: 最近密集跟踪半导体产业链数据时,美光HBM产能售罄的消息让我格外警惕。这绝非普通的行业景气波动,它让我清晰地看到一个结构性拐点的到来:存储芯片,特别是HBM,正在从周期性的“大宗商品”质变为决定AI算力上限的“战略资源”。这种属性的根本变化,将重塑整个行业的投资逻辑。本文是我对这场“内存暗战”的初步推演,核心是想回答一个问题:在这场变革中,价值的锚点究竟会系于何处?
2024年3月,中信建投发布了一篇研究报告《HBM:AI的内存瓶颈,高壁垒高增速》,报告提到——HBM是当前算力的内存瓶颈。存储性能是当下制约高性能计算的关键因素,从存储器到处理器,数据搬运会面临带宽和功耗的问题。
预测的很精准,但我估计当初研究员也可能没有预测到现在的内存市场这么疯狂。2026年刚开始,美光CEO就称:2026年的HBM产能不仅没剩,而且已经被锁死。更重要的是,美光警告全行业正面临“结构性短缺”,其目前仅能满足核心客户约一半至三分之二的订单需求。同时,公司正在与客户谈判一种“史无前例”的、更有约束力和有具体承诺的多年期供货合同。行业规则正在调整。在之前的印象里,存储芯片是典型的周期品,价格波动呈现大宗商品特征,供需失衡循环每隔几年就会上演,网友经常调侃,一旦价格下跌,三星工厂就出事故。一、HBM:那条越来越宽的“数据高速公路”
一辆超级跑车(GPU)拥有千匹马力,但连接发动机和车轮的却是一条乡间小路。这就是AI芯片与内存带宽关系的真实写照。随着大模型参数规模突破万亿,数据需要在处理器和内存之间以前所未有的速度穿梭。HBM的出现,正是在修建一条“数据高速公路”,也直接催生了高性能存储的爆发式需求。按照维基百科定义,高带宽内存(High Bandwidth Memory),是三星电子、超威半导体和SK海力士发起的一种基于3D堆栈技术的高性能DRAM,适用于高存储器带宽需求的应用场合,与高性能图形处理器、网络交换及转发设备(如路由器、交换器)、高性能数据中心的AI特殊应用集成电路结合使用。1. 技术突破的三个维度
与传统DRAM平铺在电路板上不同,HBM采用3D堆叠技术,通过硅通孔垂直连接,将带宽提升了一个数量级。当前HBM3E的带宽已突破1TB/s——相当于每秒传输一部4K高清电影,这一技术突破可以说是跟AI大模型对算力的需求完美的匹配在一起了。根据TrendForce预测,单台AI服务器对DRAM的需求是传统云计算服务器的5-10倍,对NAND Flash的需求是传统服务器的5-6倍——其中,浪潮NF5688G7等高端AI训练节点最高可搭载4TB系统内存和128TB NVMe高速存储,是普通服务器配置的30倍以上。当然这属于极端训练场景,行业整体平均配置存在较大分化。在AI服务器中,HBM通常直接与GPU封装在一起,这种紧密耦合彻底改变了供应链关系。存储厂商需要提前18-24个月与英伟达、AMD等芯片设计巨头深度协同,从原来的“标准件供应商”转型成为了“联合研发伙伴”。重要程度急剧攀升,但与之带来的就是工期、成本的增加。在价值层面上,HBM实现了价格的跃迁。一颗80 GB HBM3E堆栈的售价约为同容量DDR5的80–90倍;在H100整机BOM中,HBM成本占比约2/3,良率爬坡初期的溢价更为惊人。机构数据显示,2025年HBM市场规模已突破百亿美元级别,同比增速维持三位数水平;从收入结构看,HBM在DRAM总需求中的占比将从2024年的15-20%持续提升,预计2026年有望接近30%——且HBM的需求结构高度集中且刚性,当前HBM需求高度集中,英伟达及少数头部云厂商和芯片设计商合计贡献了绝大部分需求,甚至可以说是形成了“买方垄断”。前段时间,美光科技宣布将彻底退出旗下拥有29年历史的消费级品牌Crucial(英睿达),不再向零售市场销售内存和固态硬盘。为什么会如此决绝,就是集中向“大客户提供产能”,这种刚性需求将直接推高HBM的价格弹性。2. 需求侧的结构性裂变:从“存储数据”到“存储智能”
相比于技术突破带来的变化,AI 服务器的存储需求正在发生显著的结构性变化。随着大模型训练与推理规模持续放大,服务器侧对存储的要求不再是“够用即可”,而是围绕吞吐能力与响应速度进行系统性堆叠,呈现出明显的竞赛特征。这种竞赛是一种突然爆发式的,让人大吃一惊。我的一个核心观察是,这种需求性质的改变,是导致存储芯片估值模型需要重估的根本原因。在这一架构下,HBM逐渐演变为GPU的核心配套资源。数据说明了一切。NVIDIA 的 H100 GPU 使用 80GB 的 HBM3 显存,带宽为 3.35 TB/s。即将推出的 Rubin R100 将配备 288GB 的 HBM4 显存,预计带宽在 13-15 TB/s 之间。这一发展趋势反映了人工智能的内存需求增长速度超过了摩尔定律。一个简单的经验法则是,对于以 16 位精度运行的大型语言模型,大约每 10 亿个参数需要 2GB 的 GPU 显存。 Llama 3 的 700 亿参数版本需要的显存不止一块 80GB 的 A100。 接近 1 万亿参数的模型需要多 GPU 配置,此时 HBM 显存容量成为瓶颈。键值缓存带来了额外的内存挑战。在推理过程中,Transformer 会存储来自先前 token 的键值对,以避免重复计算。该缓存随上下文长度线性增长,在一个 70 亿的模型中,每个 token 大约消耗 0.5MB 内存。 一个“权重需要 60GB 内存的 LLM”通常无法在配备 80GB GPU 的设备上稳定运行,尤其是在处理较长的提示信息时,因为运行时内存的增长(而非权重)成为了限制因素。除此之外,更让人措手不及的变革是数据性质发生了重大变化。传统数据中心存储的是“冷数据”——访问频率低,对延迟不敏感。AI时代存储的是“热模型”——数百GB的模型参数需要被瞬间调用,等待时间直接转化为用户体验的落差和收入的流失。在这一场景下,存储延迟不只是性能指标,而是直接转化为算力利用率的下降,进而影响服务响应与商业收益。为什么会有如此大的变化?一方面,CXL协议的引入打破了传统内存的资源孤岛,使数百GB甚至TB级内存能够在服务器间弹性共享,在提升利用率的同时,也抬升了系统对高端内存的总体需求。另一方面,更具决定性的驱动力来自全球云服务商的资本开支扩张。这是技术路径与资本投入共同推动下发生的转向。为抢占AI算力先发优势,头部厂商正通过长期、规模化的采购协议直接锁定高性能存储产能,使原本零散、周期性的需求,转化为更具连续性和可预期性的结构性增长。二、供给侧的“寡头垄断”:被壁垒锁定的产能红利
与需求端的爆发式增长形成鲜明对比的是,供给端并未出现同步扩张,反而因头部厂商的战略转向和前期资本开支收缩,形成了难以快速填补的刚性缺口。产能、技术、认证——这三道门槛将绝大多数竞争者挡在了HBM的盛宴之外。要理解存储器超级周期,就需要考察数十年来不断整合演变的市场结构。三星、SK海力士和美光三家公司合计控制着全球绝大部分DRAM产量。这种集中度源于残酷的竞争格局,弱势企业被持续淘汰出局。这不仅仅是市场结果,在我看来,它是由“技术协同壁垒”、“资本开支门槛”和“客户认证周期”三把锁牢牢锁定的格局。新玩家想入场,远非买几台设备那么简单。2009年,DRAM市场仍由多家厂商主导,包括美光、三星、海力士、英飞凌、NEC、日立、三菱、东芝、尔必达和南亚等。2011年的市场低迷引发了最终的整合浪潮。随后,海力士完成股权重组,日本最后一家DRAM制造商尔必达破产并被美光收购。短短数年内,DRAM行业从多家竞争对手加速收敛,最终形成由少数厂商主导的寡头结构。这种寡头垄断格局逐渐体现在协调一致的市场行为中。最近几周,SK海力士、三星和美光几乎同时宣布停止接受新的DDR4订单。行业分析师摩尔·莫里斯将此描述为“对数十年行业惯例的惊人突破”,并指出“他们如此协调一致地采取行动是前所未有的”。DRAM寡头垄断有效地控制了供应,而需求依然强劲,这展现了集体市场力量,表明“内存行业不再遵循旧规则”。HBM 芯片领域进一步集中了这种权力。2025 年第二季度,SK 海力士以 62% 的市场份额占据主导地位,美光紧随其后,市场份额为 21%,三星则位列第三,市场份额为 17%。 SK 海力士的领先地位源于其早期对 HBM 芯片的投入以及与英伟达的主要供应商关系。目前,英伟达约 90% 的 HBM 芯片来自 SK 海力士。三星位列第三,对于这家长期主导内存市场的公司而言,无疑是一次惊人的下滑。SK海力士在2025年第一季度超越三星,占据了DRAM市场的整体份额,这是三星首次失去其领导地位。三星的HBM3E芯片在主要客户的认证过程中遭遇延误,使得竞争对手得以抢占高端AI市场,而三星则只能服务于利润率较低的细分市场。三巨头产能不够的消息也刺激了一些新兴企业的进入。但是HBM产业的资本门槛远超传统存储领域,一条HBM专用产线的投资规模高达数十亿美元,且由于工艺特殊性,无法与传统DRAM产线共享设备与产能,这就意味着新进入者需要承担巨额的沉没成本,仅凭资金实力就将多数中小企业挡在门外。还有一个不容忽视的点就是周期性波动与产能建设的长周期形成了天然错配矛盾。据统计,HBM产线从设备采购、安装调试到实现量产,整个周期长达18-24个月,即便2026年需求爆发式增长,厂商也难以快速新增有效产能。这种周期错配带来的滞后效应,进一步加剧了供需缺口:当行业从低谷转向景气时,产能无法及时跟进;而当产能逐步释放时,又可能面临未来需求波动的风险。当然,在行业低谷期敢于逆势加大HBM研发与产能投入的厂商,才能在景气周期收获红利,SK海力士正是在2022年行业低谷时坚持推进HBM3E研发,才得以占据当前英伟达70%以上的HBM供应份额,这种逆周期投资能力,也成为头部厂商巩固竞争优势的核心壁垒之一。三、巨头博弈与产业变革:估值重构下的机会与暗流
此轮存储行业的景气周期,不仅是供需失衡的结果,更是头部厂商战略博弈和全球产业格局重构的体现。行业的增长逻辑已从“规模扩张”转向“技术溢价”,呈现出显著的结构性分化特征——高端存储赛道弱周期属性凸显,传统存储仍受周期波动影响。资本市场也正在用真金白银投票,认可这一根本性转变,完成从周期到成长的估值逻辑重构。1. 产业链的权力博弈:暗流涌动的竞争格局
寡头垄断格局下,产业链的权力博弈正在悄然升级。一方面是客户的反向整合焦虑:英伟达正在悄悄布局存储堆叠技术,不排除未来将部分HBM制造环节纳入自己的先进封装流程。这种威胁悬在所有存储厂商头顶——当产品变得足够关键,客户就会思考“自主可控”的可能性。另一方面是中国玩家的追赶之路,长江存储、长鑫存储等国内厂商面临两难选择:是继续在传统DRAM和NAND领域扩大份额,还是投入巨资追赶HBM?一位国内半导体基金合伙人分析:“这类似于新能源汽车的电池竞赛,赌错技术路线的代价可能是退出主流市场。”当前,长江存储的232层NAND、长鑫存储的DDR5产品已通过国内主流厂商认证,本土订单大幅增长,国产化率逐步提升。需要指出的是,即便在传统DRAM与NAND领域实现替代,本土厂商在先进封装、HBM生态认证和全球客户绑定方面,仍存在较长追赶周期;且国产厂商可提供的主要是边际增量,2026年前全球占比仍低于10%,难以左右整体供需。虽然国内厂商尚未突破HBM的技术壁垒,但在传统DRAM和NAND领域的替代进展,仍将成为行业的重要增量机会。2. 可持续性:盛宴还是泡沫?
中长期来看,变数同样不容忽视。一是技术颠覆风险:存算一体、光计算等新型架构,长期可能改变“存储-计算”分离的冯·诺依曼体系,对传统HBM和DRAM形成替代,不过这类技术多停留在中低制程或实验室阶段,2030年前对HBM需求几乎无实质影响;二是客户集中度风险:存储厂商过度依赖少数AI芯片厂商,议价权存在隐忧;三是周期属性未完全消除:存储行业呈现“双轨制周期”特征——HBM等高端赛道弱周期属性显著,但传统存储业务的周期性波动仍会影响企业整体业绩。头部厂商已启动HBM产能扩张,机构预测2026年全球HBM供给将增长80%,若AI服务器出货不及预期,将导致HBM供给过剩,产品价格可能出现阶段性回调。同时,消费电子需求尚未明显复苏,存储厂商的业绩增长仍高度依赖AI订单的持续性,若AI大模型的商业化落地进度滞后,将影响存储需求的释放节奏。我目前最大的疑虑在于:当AI模型架构发生下一次范式革命(例如更高效的注意力机制),对HBM的依赖程度是否会下降?这决定了当前高景气度是长期叙事的开端,还是中期繁荣。四、终局思考:存储芯片的“结构性分化时代”
人工智能内存超级周期代表着半导体行业资源分配方式的结构性转变。内存定价、功耗和容量的优先级首次超过了处理器。这种逆转反映了人工智能本质上是一种受内存带宽限制的工作负载。未来两年将决定供应能否赶上需求,还是内存限制将成为人工智能基础设施经济的长期特征。目前的迹象表明后者的可能性更大。即使采取积极的产能扩张措施,40%的年需求增长率也意味着该行业将永远疲于奔命,原地踏步。对于构建人工智能基础设施的组织而言,这种现实要求他们做出调整。采购周期必须延长,内存效率必须提高,替代架构也值得考虑。过去那种计算资源充足、等待软件开发的时代已经逆转;如今,软件优化必须争分夺秒地高效利用稀缺的硬件资源。人工智能内存超级周期终将结束,就像所有供应限制一样。但它所推动的结构性转变——从繁荣-萧条的周期性波动到持续的高溢价,从计算优先架构到内存优化设计——可能会成为永久性的。内存已成为人工智能的关键基础设施,而整个行业才刚刚开始适应。综合以上分析,这给我的核心投资启示是:对于投资者而言,存储行业的长期价值锚点已不再是单一的库存周期波动,而是AI算力扩张的持续性、头部厂商的技术竞争力,以及不同赛道的周期属性差异。未来,拥有HBM尖端技术的公司,与生产传统标准存储芯片的公司,它们的估值和周期波动性将彻底分道扬镳,一个“结构性分化时代”已经开启。从情景推演视角看,乐观情景下,AI资本开支持续高增将推动HBM长期供不应求;中性情景下,2026年行业供需趋于平衡,产品价格回落但高端份额持续提升;悲观情景下,若AI投资超预期放缓,HBM可能出现阶段性过剩。关于作者:我是一名专注于硬科技领域的独立研究者。我的分析基于对半导体产业链的长期跟踪、财报数据挖掘以及技术演进路径的交叉验证。我坚信,在AI与物理世界加速融合的时代,从底层技术和供应链中发现的洞见,比追逐市场情绪更有价值。本网站所有文章均为我的个人原创研究笔记,旨在记录思考,并与同道者交流。
评论