谷歌将2026年TPU芯片出货目标上调50%至600万颗,这一决策直接指向下一代TPU v8可能采用基于CXL(Compute Express Link)技术的外部DRAM内存池架构,以替代昂贵的HBM(高带宽内存)。美国半导体行业协会(SIA)数据显示,2026年2月全球半导体销售额同比激增61.8%,其中内存与逻辑芯片是主要驱动力。这一技术路径的转变,预示着数据中心基础设施正从“以计算为中心”向“计算与内存解耦”演进,CXL作为实现内存池化和共享的关键互联标准,其生态发展已进入爆发前夜。

CXL如何解决AI算力的“内存墙”难题?

CXL是一种基于PCIe协议的高性能CPU-to-Device互连标准,其核心价值在于实现缓存一致性,允许CPU、GPU、加速器(如TPU)等计算单元高效、安全地共享同一内存池。TrendForce预测,2026年第二季度Consumer DRAM合约价格将环比上涨45-50%,内存成本压力凸显。传统架构中,HBM直接堆叠在GPU芯片上,虽带宽极高但成本昂贵、容量固定,成为制约AI算力规模扩展的“内存墙”。CXL通过将内存从计算芯片上解耦,形成可动态分配、池化共享的外部内存资源,能显著提升资源利用率和系统灵活性。

谷歌TPU架构转向为何是CXL需求的“催化剂”?

谷歌若在TPU v8中采用CXL内存池架构,将是产业界的标志性事件。此举旨在应对大模型参数爆炸性增长带来的内存容量与带宽挑战。市场分析指出,该架构能动态调整性能,并可能重塑数据中心(IDC)供应链。CXL联盟成员已超过300家,生态加速成熟。SK海力士计划在其韩国清州的新厂M15X扩大最先进DRAM的量产规模,业界预测该厂将成为SK海力士在2027年前持续扩大HBM产量的核心据点,这从供给侧为CXL所需的大容量、标准型DRAM提供了保障。

CXL产业链的核心环节与受益逻辑是什么?

CXL产业链可分为芯片、模组与生态软件三层。其中,CXL控制器芯片(如MXC芯片)是技术壁垒最高的核心环节,负责协议处理、内存管理和一致性维护。全球内存接口芯片龙头已推出相关控制器芯片并成功量产。IDC报告显示,2025年中国AI加速器服务器市场中,本土GPU和AI芯片制造商已占据近41%的份额,总出货量约165万张,为国产互联芯片提供了市场基础。

产业链环节 核心功能 受益逻辑
CXL控制器芯片 协议处理、内存管理、一致性维护 技术壁垒最高,直接受益于标准普及与硬件升级
CXL内存扩展模组 提供池化内存硬件载体 受益于服务器内存容量需求增长及架构变更
配套芯片与连接器 提供信号完整性、电源管理等支持 受益于整体互联复杂度与用量提升
系统软件与生态 操作系统、虚拟化、管理程序支持 决定CXL技术落地广度与深度

当前CXL技术的商业化进展到了哪一步?

CXL技术已从1.0标准演进至2.0/3.0,支持内存池化、共享和交换。行业正积极推进其商业化落地。阿里云透露,已有30余家车企使用平头哥自研“真武”PPU芯片开展智驾研发,实际使用量突破10万卡,显示了异构计算对高效互联的内在需求。DeepSeek V4模型也首次实现与华为昇腾等国产芯片的深度适配,推动了国内算力生态的协同发展。这些进展表明,从云到端的AI算力需求,正在倒逼底层硬件互联技术的革新。

CXL生态爆发将带来哪些确定性成长机遇?

国海证券分析认为,AI推理需求爆发正驱动算力基础设施升级,芯片设计将受益于“GPU+LPU”异构架构与存储技术的演进,行业迎来量价齐升的确定性成长机遇。招商证券则指出,科创芯片设计将深度受益于AI终端创新与算力建设的双重驱动。CXL生态的成熟,不仅将释放被“内存墙”束缚的算力潜力,更将催生包括内存扩展模组、管理软件、设计服务在内的新市场。三星电子2026年第一季度营业利润同比预增755%,也从侧面印证了高端存储市场的景气度。CXL作为下一代数据中心互连的基石,其生态爆发已不仅仅是技术趋势,更是驱动半导体产业链新一轮增长的结构性力量。