CPO最新调研:光模块800G需求远超预期,1.6T爆发前夜,AEC铜缆仍然能打!

光模块预期差最大

【最新调研】

直接上图,预计 800G 光模块全球需求达到 3500万至3800万只,同比增长超过 80%,部分机构预测可达 4000万只。


尽管1.6T光模块即将放量,但不会显著替代800G光模块需求。两者将长期并行发展,分别满足不同代际设备和网络架构的互联需求。随着AI训练与推理走向融合,客户正从GPU单点算力转向多ASIC scale up系统,这将推动光模块市场进入长期成长周期。至于铜缆方案,短期性价比极高,适用于机柜内/相邻机柜,AWS大规模采用,具体的直接看调研吧。

主持人:展望26年800G光模块的需求如何?

专家:目前,从25年5月份开始,已与海外主要CSP厂商、设备商以及部分新兴AI创业公司(如XAI、CoreWeave等)对接了光模块的需求,重点聚焦于2026年。2025年的订单基本已明确,预计800G光模块全年出货量为1800-2000万只,市场依然供不应求。上游芯片仍是核心瓶颈,尤其是EML和VCSEL。硅光等新方案虽在加速放量,但市场占比尚不足20%,主要仍依赖传统方案供货。针对2026年需求,目前各大客户反馈的数据主要基于当前供应紧张的背景,属于提前给到的预测,不代表最终订单。25年下半年将与海外大客户正式招投标,届时具体规格、数量、供应商及份额将通过招投标明确,价格也将同步确定。现阶段主要是从需求端提前收集信息,便于光模块厂商提前备料和扩产、拉设备。目前部分长交期物料交期已超过30周。设备方面,高精度耦合机及高性能贴片机的采购周期也需六至七个月以上。因此,针对2026年产能,现阶段需做初步统计,下半年将正式启动扩产。

目前来看,2026年总体需求已达3500-3800万只,较2025年增长超过80%,远超预期。800G需求高增长的主要原因包括:一个是ASIC的上量,过去两年,大客户主要依赖英伟达GPU进行大模型训练和推理。随着推理端需求爆发,客户为提升性价比,逐步引入定制化ASIC方案,以获得更高能效比和更低算力成本。微软、Meta等厂商的ASIC已进入第二、第三代,产品逐步成熟,进入规模化部署阶段。AWS的Trainium 2、微软的Maia、Meta的MTIA 2等均已量产,谷歌TPU已升级至第六代,2026年也将实现翻倍拉货,带动光模块需求大增。一方面ASIC成本较低,同样的资本开支,ASIC采购量会更大,配比的光模块数量会更多。另外一方面,以Meta为例,其新一代ASIC网络架构下,单ASIC配比光模块数量较GPU时代显著提升,成为拉动需求增长的重要因素。此外,AWS和Meta过去的传统通用算力中心也在从400G向800G升级。自2020年起,数据中心逐步升级至400G,目前带宽已需进一步提升至800G。总结而言,通用算力中心升级、ASIC及AI推理需求增长,以及设备商加大800G采购,共同推动2026年800G需求持续高增长。

主持人:展望各大客户2026年800G光模块需求量分别是多少?

专家:CSP大客户合计需求接近2000万只。具体来看,谷歌约430万只,微软420至450万只,AWS 450万只,Meta约600万只。Meta因其ASIC配比光模块最多,2026年采购量最大。Meta与公司交流时表示,其下一代ASIC总光模块需求将达1000万只,预计对应一年半至两年的需求,2026年首先采购600万只。英伟达需求约450万只。因此可以看到,过去800G的主要采购方,也就是上述五家客户2026年800G采购量仍保持70%至80%增速,Meta更是实现两倍增长。除上述CSP外,XAI目前训练Grok大模型用的是20万卡集群,按照规划2027年后扩至百万卡集群。2026年XAI给到的指引是250万只。Oracle目前以400G为主,今年上半年800G已完成认证,2025年下半年将小批量采购,2026年将大规模升级至800G。Oracle建设需求主要包括与OpenAI合作的Stargate项目,预计2026年将有超200万只800G需求。此外,Oracle自有OCI数据中心目前约66座,计划两年内扩至130座以上,2026年OCI预计超150万只800G需求。Oracle 2026年800G采购总量预计超过350万只。CoreWeave预计未来也有较大采购需求,但目前没有拿到其光模块单独采购的统计,预计大部分会通过英伟达打包采购,已计入英伟达需求。

另外,思科、Arista等设备商随着以太网交换机逐步成熟,可以部分替代英伟达IB交换机,所以越来越多的客户会采购这些设备商的以太网交换机。部分光模块由客户自采,部分如微软通过思科、Arista搭配采购。思科最新的2/3/4三个月财报显示,其高速以太网交换机环比增长70%,最新的财报数据显示,以太网交换机营收规模达7亿美元,较前一季度3.5亿美元实现翻倍增长,是一个明显的增长拐点。过去两年思科的以太网交换机业务增长平稳,自2025年起进入快速增长期,后续思科将对接更多主权AI项目,尤其是欧洲、中东等地区数据中心建设加速,受益于美国政府取消GPU采购限制。英伟达CEO近期也频繁访问中东、日本、欧洲等地区,推动主权AI产品落地。主权AI网络搭建将依赖非英伟达以太网交换机设备厂商,思科已与中东客户对接,预计其AI交换机及配套光模块业务将持续环比增长。2025年思科800G采购量约100多万只,2026年指引为250万只。若中东等客户实现突破,采购量有望进一步上调。Arista的情况实际上也类似,其交换机在海外CSP大型客户中的需求非常旺盛。目前,2026年的出货指引已达到200万只。此外,Juniper的规模相对较小,已被HPE并购,但同样能够提供超过100万只的采购订单。因此,目前800G的需求主要来自CSP大厂、部分AI创业公司以及设备厂商。整体来看,这些需求加总后已超过3000万支。

国内方面,华为和字节跳动也开始评估800G产品,但目前仍以400G供货为主。由于国内GPU受限,算力需求相较海外并不高,400G已能满足现阶段需求。预计7月以后,英伟达B30阉割版显卡将开始在国内送样测试,最快三个月后有望实现批量出货。国内市场对英伟达卡依然有较强需求。华为计划于明年推出910D芯片,届时将标配800G,因此预计明年国内也将规模导入800G,预计大致在500万只左右。全球范围内,800G的需求预计在3500万至3800万只之间,部分机构乐观预期可达4000万只。可关注下半年招投标情况及客户指引是否进一步上调。目前来看下游客户的资本开支规划及ASIC的上量均较为确定,光模块行业将高度受益于此轮增长。

主持人:展望26年1.6T光模块的需求如何?

专家:1.6T的需求同样表现良好。25年上半年1.6T的出货量未达预期,5月前几乎没有出货,主要由于英伟达GB200机架存在铜缆组装良率低、液冷漏液、芯片过热及系统不稳定等问题。一季度机架出货量不足1500柜。5月后,英伟达在财报中明确表示上述工程问题已全部解决,目前已进入高速爬产阶段。二季度机架出货量有望达到2500至3000柜,环比增速接近100%。预计下半年(2025年)机架出货量有望超过2万柜,主要为NVL72系列,包括GB200和GB300,均将优选1.6T光模块配套。英伟达已于5月启动1.6T的规模采购,订单量显著提升。目前1.6T供应商较少,中际旭创在产能和产品认证进度上均处于领先地位,能够提供硅光和传统EML两种1.6T方案,24年11月已陆续通过验证。25年上半年出货量有限,下半年预计旭创总出货量将超过120万只。今年全年1.6T需求约为200万只,其中英伟达占180万只,谷歌四季度预计采购25至30万只。中际旭创市场份额将超过60%。除中际旭创外,英伟达自研的由Mellanox设计的1.6T方案,由天孚代工光引擎,新易盛及海外Fabrinet负责光模块组装代工,现在基本开始小批量出货,预计下半年可实现四五十万只的小批量出货。天孚1.6T光引擎下半年将实现批量出货,1.6T的放量将成为天孚业绩增长拐点。新易盛也参与英伟达1.6T供应,除代工组装外,还拥有自有1.6T方案。后续AWS和Meta明年也有望采用1.6T。6月5日,博通TH6芯片正式发布,支持102T以太网交换容量,最大端口支持1.6T。预计该芯片做成交换机并通过客户验证后,明年下半年TH6交换机以及配套1.6T光模块有望在CSP厂商这边开始出货。根据与Meta和AWS的交流,明年两家1.6T需求各为七八十万只。整体来看,2026年1.6T需求规模为600至800万只,今年为200万只,明年将实现三至四倍增长。英伟达保底需求为500万只,谷歌为100至120万只。AWS和Meta合计约150万只,具体规模取决于TH6的进展。1.6T经历25年上半年的延迟后,随着英伟达机柜和TH6的推进,将进入高速放量阶段。

主持人:1.6T规模上量后,是否会影响800G的需求指引?

专家:目前来看,真正同时采购800G和1.6T的客户并不多。例如,英伟达26年大规模采购1.6T,其800G指引本身并未增加,谷歌情况类似。因此预计1.6T的上量不会导致现有800G需求进一步下调。800G仍有存量补库存需求,部分老芯片如H200、B200、B300等八卡机型明年仍将优先配备800G光模块。确实,若AWS和Meta 1.6T需求超预期,部分800G需求可能被替代,但整体影响比例不超过10%。即使1.6T大规模放量,800G需求从3500至3800万只,最多下调300万只。因此,整体市场高增长需求不会受到显著影响。

主持人:怎么看待ASIC对铜连接的影响?Meta有没有用到铜连接方案?

专家:目前市场上光和铜连接均受益,需求都在增长。长期来看,光连接的市场规模和增速更高,但铜连接在短期内仍具备极高性价比。在ASIC设计中,AWS已大量采用铜连接,尤其是带有retimer芯片的增强型铜缆(AEC),可支持5至7米的连接距离,适用于机柜内及相邻机柜间的互联,性价比突出。AWS大量采购Credo的AEC产品,新易盛现在也在为AWS定制AEC产品。市面上博创、瑞可达、华工等企业均有AEC产品。根据LightCounting的预测,未来三年AEC年复合增长率将超过45%。目前,整个AEC市场规模在2025年大约为5到6亿美元,预计三年后有望增长至12至18亿美元。相比之下,光模块目前的市场规模已达到170亿美元,后续还会进一步增长,预计在2029年之前超过300亿美元。因此,光模块市场预计会大于铜缆市场。尽管如此,在当前这两三年内,铜缆在细分领域仍是最具性价比的方案。ASIC厂商普遍会在机柜内采用铜缆进行互联。但考虑到Meta未来数据中心的架构,将采用数百张卡的scale up全互联,形成超节点网络,这将涉及多个机架,甚至超过十个机架的互联,这种距离铜缆无法满足。预计Meta可能在机架内仍会使用铜缆,但跨机架的scale up组网明确需要采用光模块,目前主要集中在800G LPO光模块方案上。新易盛和华工目前都在Meta推进相关方案。预计2026年,Meta的800G将大规模采用LPO方案,但铜缆并不会完全被淘汰,机柜内可能依然会使用铜缆。只要ASIC出货量持续高速增长,铜缆和光模块的需求都会同步增长,但光模块的增速和市场空间更具吸引力。

主持人:Meta ASIC和光模块的配比关系是怎样的?

专家:Meta的ASIC将在下半年发布,2026年将实现大规模出货。当前上量预期已由早期的六七十万只提升至100万只以上。根据Meta的规格推测,其单ASIC配比的光模块数量较大。以当前带宽为例,单卡互联带宽达到3.2TB/s。英伟达Blackwell芯片单卡互联带宽为7.2TB/s,上一代Hopper为3.6TB/s,华为910C受限于制程为2.8TB/s。预计2026年Meta的卡片互联带宽为3.2TB/s,属于行业平均水平。要实现单卡与其他卡的全互联带宽,3.2TB/s除以800G,即单卡需配备4个光模块。高速交换机层面也需4个800G光模块,类似英伟达72张卡需18个NVSwitch芯片连接。因此,单卡配比的800G光模块将达到1:4至1:8。部分scale out网络和前端网络还会用到800G、400G甚至200G光模块。市场上有传言称Meta单卡需配12个以上光模块,实际情况是800G光模块预计为8个,其余为400G或200G。假设2026年Meta出货100万颗ASIC,按1:8配比计算,对应800万只800G光模块,与目前预计的600万只以上基本一致,从拉货节奏来看可能部分需求会延至后年。Meta ASIC上量及光模块配比增加是比较确定的。具体情况可待Meta下半年发布ASIC规格及服务器架构后进一步明确。目前根据Meta初步指引,2026年ASIC将大规模上量,单ASIC配比光模块因全光组网和scale up扩张将显著提升,总需求将超过1000万只。

主持人:Meta明年ASIC 100万颗以上的出货量,是客户那边给到的forecast吗?

专家:前期Meta与公司交流时,预期为60万颗左右,但近期又追加了光模块需求,要求公司扩大产能。但公司对扩产持谨慎态度,因此与Meta反复确认需求量及追加800G需求的原因。Meta口头告知,2026年ASIC需求将进一步上调。Meta认为其ASIC在单位算力性价比上优于英伟达,且未来可同时支持训练和推理,将建设训推一体的数据中心。

主持人:Scale up的连接方案中,应该会涉及到铜连接的方案,刚刚的算法是全部按照光模块连接计算的吗?

专家:是的,目前像英伟达的72张卡,全互联都是采用铜缆,使用了5184根铜缆将72个GPU与18个NVSwitch交换芯片进行互联,构成了一层scale up网络。英伟达之所以能够采用这种方案,是因为其算力高度集中,72张卡集中在一个机柜内,卡与卡之间的互联距离基本都在两米以内,平均距离甚至只有一米,因此铜缆完全可以胜任。铜缆的互联在成本和功耗方面都更低,所以在可以使用铜缆的情况下,优先选择铜缆。但随着未来ASIC的发展趋势以及scale up超节点规模的不断扩大,ASIC单卡算力难以与英伟达GPU抗衡,Meta等厂商通过增加卡的数量,实现更大模型参数的存储和计算。例如华为的CM384节点,其单卡算力仅为英伟达Blackwell的三分之一,但通过将384张卡组成scale up超节点网络,整体算力达到NVL72的1.8倍。通过数量和规模来弥补制程的不足。单芯片受限于制程无法超越对手,但可以通过系统架构和规模进行挑战。

随着超节点规模达到几百张卡,一个机柜无论在电源、功率还是散热方面都无法承载,必然需要分布在多个机柜,机柜间的互联距离通常在10到30米之间,此时必须采用光纤互联。铜缆互联的极限距离为5到7米,未来速率提升后,铜缆互联距离可能缩短至3米以内。目前1.6T的AEC普遍传输距离仅为3米。其实英伟达在2022年推出的GH200系统,256张卡的全互联采用了32个机柜间的大量光纤,使用了3000多个800G光模块进行连接。但由于光模块功耗和成本较高,该系统最终并未实现量产。当前之所以又回到英伟达200多张卡或华为300多张卡全互联的方案,是因为大模型参数持续扩张,几十张卡已无法满足需求。同时,光模块技术的发展,如LPO技术降低了功耗,使得几百张卡的scale up网络在技术上成为可能。因此,当前正处于scale up网络“光进铜退”的阶段,光模块需求在新领域迎来爆发。但并不是说明年所有ASIC都会采用全光网络,实际上谷歌和AWS部分服务器仍会选择铜缆方案。

主持人:谷歌和AWS的ASIC和光模块的配比关系是怎样的?

专家:目前,AWS大量采用AEC,单ASIC配比的光模块约为1:1.5。谷歌早期配比为1:1.5,后续将提升至1:3。总体来看,配比没有Meta的1:8那么高。由于ASIC价格远低于GPU,当前英伟达单颗GPU价格为3-5万美元,而ASIC价格在7000到12000美元之间,平均约为1万美元,相当于英伟达GPU的三分之一到五分之一。因此,相同的资本开支下,客户可以采购更多ASIC。即使光模块配比未大幅提升,光模块的总需求量依然明显增长。



格隆汇声明:文中观点均来自原作者,不代表格隆汇观点及立场。特别提醒,投资决策需建立在独立思考之上,本文内容仅供参考,不作为实际操作建议,交易风险自担。

相关阅读

评论