如何看待谷歌TPU对算力产业链的影响?

本文来自格隆汇专栏:中信证券研究,作者:徐涛 雷俊成

AI算力需求共振

近期谷歌在AI方向的加速让市场看到其软硬件一体化的潜力,也强化了其自研的TPU芯片在AI计算加速的适用性,同时The Information报道谷歌和Meta正商谈进行对外销售TPU,如果落地也将是ASIC商业模式的突破。我们认为英伟达GPU作为主流AI算力芯片的格局仍会保持不变,谷歌TPU产业链也有潜力成为2026年AI硬件领域弹性最大的子板块之一,建议关注算力基建和应用落地等层面的机会。

事件催化:

近期谷歌发布Gemini 3系列,该模型在强化学习加持下推理能力进步明显,作为完全依靠谷歌自研的TPU芯片训练的大模型,Gemini 3 Pro与Gemini 3 Deep Think模式在多项测试中均处于行业领先地位。同时据The Information报道,谷歌正与Meta进行商谈,讨论销售价值数十亿美元的TPU芯片。我们认为,谷歌TPU从推理为主正式扩展到全面布局训练端,并从“仅出租算力”转向“直接卖芯片”,也是商业模式的突破。我们解读如下:

1)从推理到训练:此前市场普遍认为云厂商自研ASIC主要是满足自身高度定制化的推理需求,在训练阶段仍较大程度依赖英伟达GPU,这也反映了GPU在前沿模型训练阶段对大规模互联集群要求极高的特性。而实际上谷歌自2023年底发布Gemini大模型起,就首先使用TPU v5训练,此后每代Gemini与TPU硬件基本同步迭代,包括2024年发布的Gemini 2.0也是由谷歌TPU v6 Trillium训练而成。此次Gemini 3表现大幅超预期,强化了TPU能够实现万亿参数大模型全流程训练的落地能力,进一步验证其全场景适用性。

2)从自用到外销:谷歌过去仅将TPU部署于自有数据中心并通过Google Cloud进行算力租赁,包括此前AI初创公司Anthropic与谷歌宣布云服务合作协议,这笔价值数百亿美元的交易将为其提供多达100万颗谷歌TPU芯片,预计在2026年带来超过1GW的AI算力。而此次谷歌与Meta商讨直接销售TPU芯片,计划2027年起直接交付数十亿美元TPU(可能以完整Pod形式),2026年先以租赁过渡,这有可能成为TPU商业模式的突破,一旦落地,有望提升谷歌TPU在AI芯片的市占率,并提升市场对于ASIC芯片远期市场份额和格局的预期。同时据The Information报道,谷歌为降低客户迁移门槛,开发了“TPU Command Center”软件用于控制TPU服务器集群,支持PyTorch相关工具交互,同时谷歌还推出了完整PyTorch原生支得OpenXLA + JAX-to-PyTorch桥接工具,迁移成本大幅下降。

但TPU和GPU不是零和竞争,而是AI算力需求共振。

我们认为GPU作为主流AI算力芯片的格局仍会保持不变,英伟达GPU也在Scaling Law下的三个计算阶段:预训练、后训练和推理中均充分展现了产品的全面性和领先性。TPU类ASIC的出现将和GPU共同承接AI算力爆发增长的总需求。谷歌和Meta的合作表明,AI需求加速增长远超预期,近期CSP Capex持续加码,我们认为AI算力景气度仍将维持。TPU驱动的效率和GPU驱动的速度是互补的,而不是竞争的。每种架构在训练与推理以及公共云与私有云之间都有不同的角色。短期来看,我们在此前报告指出,ASIC芯片有望成为2026年增量需求的主力。随着模型能力的逐步成熟、AI向垂类应用延伸结合,各大CSP厂商加速ASIC方案迭代进一步提升推理算力性价比,我们认为终端应用加速落地下推理需求释放有望超预期。而且ASIC性价比的特点在于,同样的资本开支下能带来更多的算力芯片使用量,以及更多的光模块、PCB等配套需求。

风险因素:

宏观经济波动及地缘政治风险,供应链不稳定的风险,海外算力龙头新产品放量不及预期,AI市场需求增长不及预期,技术变革与产品迭代风险,政策监管及数据隐私风险,客户集中度过高风险。

投资策略:

我们认为谷歌在AI方向的加速,对当前全球AI产业影响明显。谷歌AI产业链也有潜力成为2026年AI硬件领域弹性最大的子板块之一,建议关注算力基建和应用落地等层面的机会。


注:本文节选自中信证券研究部已于2025年12月9日发布的《电子行业算力系列报告16—如何看待谷歌TPU对算力产业链的影响?》。

格隆汇声明:文中观点均来自原作者,不代表格隆汇观点及立场。特别提醒,投资决策需建立在独立思考之上,本文内容仅供参考,不作为实际操作建议,交易风险自担。

相关阅读

评论