摘要
■ 核心观点
本篇为AI系列深度报告第八篇。回顾本系列第二篇,我们曾从材料端出发,概览性梳理了AI加速对光刻胶、冷却液、电子特气、湿电子化学品、电子树脂等领域的潜在影响与机会。本篇选择回到“整机现场”,以一台NVIDIA DGX H100为样本,从整机到部件、从部件到材料逐层拆解,从芯片—模块—托盘—整机—数据中心五个层级回溯材料需求及其演进方向。
投资逻辑
在近期2025Q3-2026Q1的业绩电话会中,亚马逊、微软、谷歌、Meta等AI龙头企业均上调了资本开支指引,2026年将会是AI硬件设施大量投放之年,利好上游相关原材料需求。我们梳理出来了整个H100数据中心的主要架构和零部件,以材料功能类型进行重新分类出五大板块,更加全面综合的视角寻找材料端的投资机遇。
① 晶圆加工与封装材料:这一环节是材料投入密度最高、技术门槛最高的环节,涉及零部件包括GPU、NVSwitch/CPU/NIC等高性能逻辑与控制芯片;HBM/DDR等存储芯片;硅光/电光器件与光模块内的驱动与TIA 芯片;电源管理芯片与各类功率半导体器件。从产业链进展看,国内关键环节加速兑现,企业均围绕“客户导入、小批试产、量产爬坡、扩线/扩品类”推进,订单以认证驱动为主。
② 覆铜板材料:H100整机中涉及多层高速、高功率密度的PCB/载板/背板,均以覆铜板为核心基材或其延伸材料。具体包括GPU UBB、主板、交换机主板等。主要材料包括:树脂、铜箔、玻纤布、填充材料。从产业推进情况来看,供给端呈现“树脂高端化、铜箔高性能化、玻纤差异化”的协同升级趋势。
③ 导热散热材料:受益于算力需求的持续攀升与机架功率密度提升,散热材料正成为数据中心基础设施的关键增量环节,散热主要应用在GPU核心裸晶、封装盖板、HBM堆叠存储、高速接口芯片、存储、电源等,从产业端2025年上半年情况来看,热界面材料端围绕相变/石墨/金属与复合体系并行推进,液冷介质企业普遍扩建浸没/冷却液产能,全氟/烃基/硅油等路线并行,面向数据中心与半导体制程冷却的合规与长期可靠性验证成为标配。
④ 光学材料:光学材料主要应用在光模块中,其组成部件主要为激光器芯片、光发射组件、光接收组件、探测器芯片。2025年上半年,国内光芯片衬底与关键晶体材料进展整体稳步推进,但可独立披露的材料公司数量有限,主要因下游光模块/IDM厂商普遍采取垂直一体化与联合开发模式,晶圆外延、键合与晶体加工高度绑定客户认证周期,供应链外溢度低。
⑤ 供配电材料:当前,单颗Blackwell GPU的功耗已超过1kW,DGX B200系统(配备8个Blackwell GPU)的总热设计功耗约为14.3kW。预计Rubin和Feynman等后续架构将在此基础上增加两倍甚至五倍。能源利用效率和低损耗将会是配电材料未来重要方向。2025年上半年产业端稳步推进:软磁金属/非晶与纳米晶粉体迭代带动一体化电感与芯片电感小批量落地;面向MLCC/热敏电阻的纳米级钛酸镁钙等基础粉、银粉/银浆与铜粉体系加速国产替代;5N级超高纯铝电极材料实现国产突破,带动铝电容与相关电子浆料的安全供给。
投资建议
围绕“认证进度+产能扩张+国产替代”三条主线布局。建议重点关注覆盖液冷介质与高性能TIM、高频高速覆铜板用树脂/铜箔/玻纤、光刻胶、湿电子化学品、电子特气、光芯片衬底与电磁材料的优质标的。
风险提示
下游需求不及预期风险; AI普及速度不及预期风险;原材料价格波动风险;行业竞争加剧风险;新材料研发与国产替代进度不及预期风险;新建项目与产品验证进度不及预期风险; 下游资本开支不及预期;新技术迭代风险。
正文
一、AI服务器带来化工材料新机遇
1、AI服务器市场前期广阔,需求增速极快
全球AI市场维持高景气,长期复合增长强劲。据Precedence Research测算,2023—2030年全球人工智能市场有望实现35%以上的复合增速;在此基础上,至2034年市场规模可达2309.5亿美元,约为2025年的26倍,体现出由应用渗透与产业化落地共同驱动的长期扩张趋势。
算力成AI发展的核心要素,全球与中国智能算力均进入高速扩张期。受大模型训练与推理需求拉动,全球算力规模快速攀升。根据IDC、Gartner、TOP500及中国信通院预测,全球算力将由2023年的约1397 EFLOPS增长至2030年的约16 ZFLOPS,2023—2030年复合增速约50%。中国方面,IDC数据显示,中国智能算力将由2024年的725.3 EFLOPS提升至2028年的2781.9 EFLOPS,2020—2028年复合增速达57.1%。

下游需求快速放量,头部模型贡献度高。根据openrounter,截至2025年11月,大模型周度token使用量已升至7.08万亿,较年初扩大约13倍,生成式AI在多行业、多场景的使用强度显著提升;从结构看,Anthropic Claude、Google Gemini、OpenAI GPT、DeepSeek 与 Xai Grok 五大系列合计周度使用量约5.9万亿,占比约83%,CR5维持高位,表明需求主要由头部模型驱动,市场呈现规模化扩张与集中度提升并行的态势。

海外头部AI应用厂商资本开支持续加速,上调指引指向2026年成为硬件投放大年并带动上游材料需求走强。过去五年,其季度资本开支平均环比增速约8%,分项看亚马逊、微软、谷歌、Meta近两年投入斜率明显抬升;从最新指引与披露看,亚马逊2025年资本开支计划约1250亿美元(较此前1000亿美元上调);谷歌2025年指引约910–930亿美元(较此前850亿美元上调);Meta维持2025年700–720亿美元并上调区间上限;微软管理层在2025年Q4与2026年Q1电话会中均给出更积极展望。

2、AI服务器的零部件构成详细拆分
当前市场对于AI计算机乃至于计算中心的材料讨论都是集中于某一个材料深挖,我们想以更加全面的视角将AI计算机的组成材料整体梳理清楚,寻找值得重点关注的方向。以英伟达DGX H100整机为例,AI数据中心架构大体都遵循着“芯片—模块—互联—托盘—主机—机架—集群”的层层放大逻辑,目标是在标准化封装与高带宽互联的约束下,把单点算力有效汇聚为可编排的集群算力。

芯片层:最底层的H100 GPU芯片是算力核心。在H100这一代,HBM是和GPU核心一起做成同一个封装的,通常是“GPU核心裸片+多颗HBM堆叠+封装基板”组合在一起。GPU裸片和HBM直连显著提升模型参数与激活数据的就地吞吐,降低访存瓶颈。另外,GPU芯片内还集成NVLink控制器,等同于GPU自带NVLink接口能力,从这颗芯片的封装边缘连到外部的互联载体,比如插在UBB上,经由走线连到NVSwitch芯片,再到其他GPU,为后续多GPU的点对点互联提供物理通道。这一层可以视为“发动机”,具备能效密度优势,但尚不具备系统落地所需的供电、散热与标准接口能力。
加速器模块层:在芯片之上,NVIDIA采用OAM标准将H100制作为可替换、可维护的加速器模块。OAM搭载一颗GPU封装芯片,并在模块上集成稳压供电、机械与热接口以及高速触点。这一步的本质是把裸硅转化为“标准算力砖”,既满足数据中心高功耗场景的工程化要求,又为后续密度化部署与快速维护提供边际成本优势。到此为止,单卡能力已经可用,但要实现多卡强耦合并扩展到系统级吞吐,还需要一层面向互联的结构化基座。
通用基板(UBB)层:UBB是多个OAM的承载与互联平台,核心增量是引入NVSwitch芯片,形成全互连的GPU高速域。与传统通过PCIe或点对点NVLink链路的“局部互联”不同,NVSwitch提供交换能力,使得多块H100可以以接近对称的带宽进行任意两两通信,显著降低跨GPU通信的延迟,改善大规模并行训练下的同步成本。站在系统设计视角,UBB将若干OAM聚合成一个“GPU计算岛”。

托盘层:
① GPU托盘:所谓托盘,可以理解为围绕“GPU计算岛”的工程化子系统:它将UBB、若干OAM、NVSwitch、风道与散热模组、线缆与结构件、电源分配与管理信号等一体化封装,形成抽屉式可插拔单元。NVIDIA H100托盘有两条主要形态:一类是HGX H100的通用托盘,面向整机厂商的开放型部件,便于各家服务器平台快速集成;另一类是DGX H100的定制托盘,更深度适配英伟达自有整机在布局、气流组织、线缆路径与维护工艺上的要求。无论形态差异如何,托盘层完成了“从电路到产品”的关键跨越:将高带宽互联与高功耗散热在机械空间内稳定落地,为与通用计算平台对接创造条件。
② 与GPU托盘相配套的,是主板托盘。主板托盘承载通用计算与系统入口职能,典型配置为双路高性能CPU与大容量系统内存,同时布署PCIe根复合体、网络与存储接口、以及带外管理控制器(BMC)。在逻辑分工上,CPU负责任务编排、数据预处理、I/O管理与与操作系统/驱动层协同,通过中板或背板与GPU托盘完成PCIe传输、管理与供电连接,并在运行时将数据有序地输送至GPU计算岛,再汇总结果。由此,计算系统的“指挥中枢”(CPU/内存)与“加速引擎”(8×H100 GPU)形成高效协作,既保障通用计算的广谱适配性,也释放加速域的并行吞吐。
整机层:当GPU托盘与主板托盘、电源与配电(PSU/PDB)、风扇与风道、结构与面板、网络与本地存储等子系统集成进同一机箱后,即构成DGX H100整机节点。

数据中心层:整机节点需要与机柜配电和机房基础设施配合,多个DGX H100节点按安装在标准机柜中。机柜上方会配有PDU(配电单元),负责回路分配、计量与保护等任务,配合机房的冷热通道设计,形成可预期的热功耗边界条件与维护策略。此外,为了让H100整机能够高速协作,机柜会配有专门的管理机架,包含高带宽的计算交换机、连接存储的交换机、带外管理交换机、管理服务器、管理存储。

交换机的构造类似于主机。计算/带外/存储交换机都有共同的骨架:主PCB承载交换ASIC,前面板是SFP/QSFP笼体,后部是可热插拔PSU与风扇,控制板/CPU在中部,风道前冷后热(或反向)设计。AI数据中心的计算交换机或高性能存储交换机需要更高功耗、更高速口、更强散热与多ASIC互联的机型,但大体构成都是基本五件套:交换ASIC、前面板端口与光模块、控制CPU、电源/散热、机箱/背板。

此外,相比于DGX H100 SU这种由多台H100组成的服务器机柜,新一代的高性能AI服务机柜更倾向于采用“超节点”架构。比如,NVL72就是典型的“机柜级超节点”,一柜内有72块GPU,机柜内通过 NVLinkSwitch 全互联,侧重在“单柜内做成一个大算力域/超节点”以达到更高的性能。从结构上来讲,超节点架构主要是改变了互联的方式,域内GPU不再需要外部交换机,更高密度的集成也需要匹配更高功率模块、高性能散热等。


二、AI服务器涉及五大板块材料
在第一部分,我们梳理出来了整个H100数据中心的主要架构和零部件,接下来重点梳理涉及的相关材料及演进方向。考虑到化工材料零散的分布在各个部件和环节中,前文以物理体量从小到大的分类容易出现材料重复冗杂的情况,我们以材料的功能类型重新分为5类:晶圆加工材料、覆铜板材料、导热散热材料、光学材料、供配电材料。
相比通用服务器,AI服务器在AI芯片与内存带宽上大幅增强,整机价值量随之上移,其他配套部件也相应升级。根据半导体行业观察披露的数据,NVIDIA DGX H100 GPU板组(含HBM)占整机价值约73%,存储约4%,封装0.55%,电源0.45%,散热部件0.13%。

2.1晶圆加工与封装材料
在DGX H100机柜中,涉及该类材料的零部件主要包括:GPU、NVSwitch/CPU/NIC等高性能逻辑与控制芯片;HBM/DDR等存储芯片;硅光/电光器件与光模块内的驱动与TIA 芯片;电源管理芯片与各类功率半导体器件。上述器件共同决定算力、带宽与能效边界,是材料投入密度最高、技术门槛最高的环节。
从价值量与技术壁垒看,晶圆加工是芯片价值的核心点。该环节以“沉积-光刻-刻蚀-离子注入-清洗-CMP-热处理”等循环工序在硅片上构建数百层复杂结构,对材料纯度、缺陷密度与批间一致性要求极端苛刻。


封装是芯片成品的最后一步,应用于DGX H100整机中的H100+HBM CoWoS/SoIC、OAM模块等。封装工艺的演进遵循 “边缘引脚、通孔装配”走向“阵列互连、三维集成”的主线:
① 最为初级的是DIP等通孔封装,主要用在家电工控等对空间大、I/O需求小等器件,其特点就是两排长引脚插入电路板,可靠易装配。
② 随着板级密度的提高,封装技术从通孔转向表面贴装(SOP / SSOP / TSOP /SOJ)和四边引脚(QFP / TQFP / LQFP),边缘引脚数量逐渐接近极限。
③ 为了满足GPU更高I/O的需求,封装技术出现从“边”到“面”切换,如BGA/LGA把焊点搬到芯片底面,做成二维阵列,是过去主流的高I/O封装方式。此外,移动终端小型化的需求催化了CSP(芯片尺寸级封装)和WLP(晶圆级封装)的诞生。
④ 当平面与封装层级都逼近瓶颈,3D IC通过TSV(硅通孔)在芯片层级实现垂直互连,把多颗裸晶堆叠,缩短信号路径、提升带宽/能效,像HBM就是典型应用。

材料方面,封装每一次形态跃迁都伴随材料体系的升级。材料面临的核心挑战之一是降低热膨胀系数(CTE)不匹配,因为聚合物的膨胀系数远大于硅,这会导致应力、翘曲和缺陷。当前,聚酰亚胺(PI)、PBO、BCB、环氧树脂和丙烯酸树脂复合材料体系、热塑性聚合物等关键材料被广泛应用于先进封装中,用作介电材料、模塑化合物、底部填充材料和临时键合材料。然而,由于没有单一配方能够满足所有目标,解决方案是针对特定应用开发配方,以平衡每个客户和封装架构的性能权衡。

从产业链进展看,国内关键环节加速兑现,企业均围绕“客户导入、小批试产、量产爬坡、扩线/扩品类”推进,订单以认证驱动为主;产品上沿着更大尺寸/更高纯度/更低缺陷与更先进制程兼容演进,硅片侧聚焦150mm-300mm与器件级良率稳定,光刻胶侧围绕KrF、ArF逐步延伸,部分品类实现系列化供货。

电子特气与湿电子化学品板块整体呈现“保供+替代+扩品”的共性特征:一方面,围绕集成电路制造对高纯度、稳定供给的刚性需求,企业普遍以新建/扩建装置与本地化产线为抓手,形成从电子级硫化氢、氟化氢、四氟化碳、六氟化硫、氨/氮/氩混合气到特种掺杂气的多品类矩阵,部分品种实现对进口主力的可替代与规模化出货;另一方面,湿电子化学品在G5及以上等级的纯度、颗粒和金属离子控制上持续爬坡,产品覆盖电子级硫酸/硝酸/氢氟酸/过氧化氢/氨水及显影、去胶、清洗与配套溶剂,打通客户认证到量产路径。

2.2覆铜板材料
覆铜板是制造印制电路板(PCB)的基础材料。H100整机中涉及多层高速、高功率密度的 PCB/载板/背板,均以覆铜板为核心基材或其延伸材料。具体包括GPU UBB、主板、交换机主板等。覆铜板主要材料包括:树脂、铜箔、玻纤布、填充材料,按介质损耗因子 Df 从大到小把PCB基材分成多个Tier,Df越小,越适合更高的速率或更高的射频/微波频段,材料也更贵、工艺更难。

高频高速树脂通常按介质损耗Df分级:
① 常规损耗(Df≥0.013)时以改性环氧/多官能环氧为主,成本低、工艺窗口大;
② 中损耗区间(0.008–<0.013)多用特殊环氧体系及其与苯并恶嗪、BMI、BT等共混,兼顾Tg/Td与成本,适合中高速背板;
③ 低损耗(0.005–<0.008)则转向聚苯醚PPO/PP E或其与特殊环氧、氰酸酯的共混,显著降低插损、吸水率低,量产成熟,是56G/112G常用路线;
④ 甚低损耗(0.002–<0.005)进一步提高PPO含量或采用PPO+苯并恶嗪/氰酸酯/BMI等复配,通过低极性树脂与优化填料获得更小Df、稳定Dk,用于超长通道或更苛刻裕量;
⑤ 当追求超低损耗(Df<0.002)及射频/毫米波时,采用PTFE或PTFE‑like/LCP等体系,常配合陶瓷填充以稳定Dk,但对压合、钻镀与成本要求最高。
总体上,随着Df降低,材料从改性环氧逐级过渡到PPO/CE/BMI再到PTFE类,制造难度与成本递增,需要与HVLP/ULP铜箔、铺展玻纤及低损耗填料协同设计。

铜箔按表面粗糙度(Rz)大小,可以划分为三大类别,分别是VLP型铜箔(超低轮廓铜箔)、RTF型铜箔(低轮廓反转铜),以及HVLP型铜箔(极低轮廓铜箔)。高频高速刚性PCB用HVLP型目前成熟化产品包括四个世代:HVLP-1的Rz值在1.5-2区间,HVLP-2的Rz值在1-1.5区间,HVLP-3的Rz值<1,HVLP-4的Rz值<0.5,其中HVLP2-4是当前市场需求的热门品种,HVLP5是未来方向。

玻纤布是覆铜板的“骨架”,决定板材的尺寸稳定性与机械强度,并直接影响高速信号的一致性。产品从普通E‑glass(也称一代电子布)向低介电玻纤(二代布,如D玻璃、S玻璃改型)再到石英布(三代布,高纯SiO2)迭代,介电常数与损耗系数逐级下降:E‑glass约Dk6.6/Df0.0006,二代约Dk4.6/Df0.0027,石英布可降至Dk3.74/Df0.0002,是玻纤布材料升级方向。
填料用于调节介电与热学性能并增强尺寸稳定,当前以球形熔融石英(SiO2)为主来降低Dk/Df并提升介电均匀性,射频或高热流密度应用引入陶瓷微粉(如Al2O3、BN、AlN等)提高导热并降低Z向CTE;在PTFE体系中常采用“陶瓷填充PTFE”获得极低损耗与稳定Dk。

纵观2025年上半年国内覆铜板关键材料企业进展,供给端呈现“树脂高端化、铜箔高性能化、玻纤差异化”的协同升级趋势:树脂环节加速向低介低损、耐高温与环保配方迭代,国产厂商在环氧、聚酰亚胺、PPO/OPE、烯烃类以及LCP等体系上推进工程化与客户验证,部分已切入高频高速与IC载板用材;铜箔环节围绕HTE/RTF/低轮廓(HVLP/超低粗化)持续扩产和工艺降损。面向服务器、AI加速卡和高多层板需求的高强度、低粗化铜箔成为主线,龙头推进万吨级产能与国际客户认证;电子布环节聚焦超薄化、高强高模与低介电玻纤布。


2.3导热散热材料
受益于算力需求的持续攀升与机架功率密度提升,散热材料正成为数据中心基础设施的关键增量环节。高效散热方案(含低热阻TIM、均热板/冷板及风道/液冷系统优化)有望直接提升GPU集群的性能稳定性与上架密度,对于H100数据中心中,散热主要应用在GPU核心裸晶、封装盖板、HBM堆叠存储、高速接口芯片、存储、电源等。
在实际的AI服务器里,散热几乎都是混合方案而非单一模式:即便CPU/GPU采用直连冷板进行液冷,机箱里仍然保留风扇来为DIMM、VRM、NIC、SSD以及光模块等空冷部件提供必要气流,同时带走冷板、管路和局部器件向空气泄露的余热;机柜在后门使用水冷换热器把整机排气热量与设施冷水交换,但机箱内部依然依靠风扇组织前进后出的气流;即使是浸没式系统,电源模块或外置交换机等外围设备仍可能保持风冷。因此,从整机层级看,多介质、多层级协同的混合散热是主流现实。
当前,单相冷板式液冷在液冷数据中心的应用占比达90%以上,是现阶段及未来一段时间业内主流的液冷技术方案。单相浸没式液冷节能优势更突出,且近年来该技术逐步趋于成熟,相关产业链快速发展完善,小规模商用不断推进。而喷淋式、两相冷板式、两相浸没式这3种液冷方案的技术研究和产业生态尚需完善。

在电子器件散热过程中,发热元件与散热模组之间存在细微凹凸空隙,而空气导热系数极低,进而降低了散热效率。热界面材料(TIM)则用于填充这些空气间隙,可有效降低接触热阻,实现热量快速传递。

液冷技术主要可以分为间接液冷、直接单相液冷和直接两相液冷三类:
1间接液冷是液体与发热部件通过热的良导体间接接触,液体在通道内发生相变/非相变升温吸热,来使发热部件降温的冷却方式。由于冷却液不与电子设备直接接触,因此液体的选择范围较大,只需要考虑导热系数是否满足技术要求,以及能否与换热导体管路兼容即可。而间接液冷在实际应用方面,又分为冷板冷却和热管冷却。主要的冷却介质为水、甲醇、丙酮、氨、一氟二氯乙烷等。
2直接单相液冷是将不影响电子设备部件正常工作的绝缘液体与部件直接接触,液体不发生相变来带走热量的冷却方式,根据冷却液与部件接触的方式又可分为单相浸没式液冷和单相喷淋液冷。冷却液需要满足绝缘性强、粘度低、闪点高或不燃、腐蚀性小、热稳定性高、毒性小等性能要求,以矿物油或全氟胺、全氟聚醚等氟化物为主。
3直接两相液冷的创新点在于利用冷却介质相变的潜热进行冷却,一般采用沸点在80℃以下的冷却介质,同样分为浸没式和喷淋式液冷。冷却液材料要求需要较低的沸点,在设备稳定运行范围内进行相变吸热,可采用FC-72、Novec-649、HFE-7100或PF-5060等短链氟化物混合物。

整体2025年上半年情况来看,热界面材料端围绕相变/石墨/金属与复合体系并行推进,液冷介质企业普遍扩建浸没/冷却液产能,全氟/烃基/硅油等路线并行,面向数据中心与半导体制程冷却的合规与长期可靠性验证成为标配。

2.4光学材料
光学材料主要应用在DGX H100光模块中,其组成部件主要为激光器芯片、光发射组件、光接收组件、探测器芯片。光模块主要作用是实现光纤通信中的光电转换和电光转换,发送接口输入一定码率的电信号,经过内部的驱动芯片处理后由驱动半导体激光器(LD)或者发光二极管(LED)发射出相应速率的调制光信号,通过光纤传输后,接收接口再把光信号由光电检测转换成电信号,并经过前置放大器后输出相应码率的电信号。
光芯片又称为无源芯片,相比于CPU、XPU等有源芯片,无源芯片不需要外部供电即可按其本征物理响应工作,其材料、工艺有源芯片有显著区别。光芯片原材料主要是Ⅲ-Ⅴ族化合物半导体和宽禁带半导体,典型材料包括磷化铟(InP)和砷化镓(GaAs)等。这类材料具备高频性能好、宽温稳定、低噪声、抗辐射等优势,契合高端通信需求。
技术成熟周期推动数通市场光模块以5年左右的升级周期迭代:2015年以前,数据中心光模块以10G、40G为主;2016年,25G、100G光模块开始部署,2019年开始大规模放量;2019年光模块进入后100G时代,上层交换机光模块速率开始向200G/400G升级。2022年,200G、400G产品大规模放量,800G光模块进入导入阶段。速率的提升对材料提出更高的要求,比如更高带宽、更低损耗光学芯片。

2025年上半年,国内光芯片衬底与关键晶体材料进展整体稳步推进,但可独立披露的材料公司数量有限,主要因下游光模块/IDM厂商普遍采取垂直一体化与联合开发模式,晶圆外延、键合与晶体加工高度绑定客户认证周期,供应链外溢度低。

2.5供配电材料
AI数据中心的配电设备整体形成“市电/柴油—ATS—UPS/电池—低压配电/母线槽—机柜PDU—PSU—VRM—芯片”的端到端冗余链路。当前,Blackwell GPU的功耗已超过1kW,预计Rubin和Feynman等后续架构将在此基础上增加两倍甚至五倍。此外,需要注意的是,整个服务器系统由多个GPU组成。例如,DGX B200系统(配备8个Blackwell GPU)的总热设计功耗约为14.3kW。由于AI服务器所需电源功率更大,因而带来耗电量的大幅提升,为满足新时代节能减排的要求,全球政府和能源组织都在推动强制性法规,以提升数据中心的能源效率。
为了减少损耗,AI服务器电源正在从传统的12V输出总线向48V或54V输出总线转变。其最直观的好处就是:支持更高的功率等级,降低母线上的铜损和压降,提升效率。因为相同功率下电压提升了4倍,电流下降4倍,导体上的铜损 I²R 按平方关系下降到 1/16,从而能实现更高的效率,支持更高的输出功率等级。

先进的无源元件技术是AI服务器电力系统的基石,12V向48V电源机架电压的转变,推动了对先进MLCC(多层陶瓷电容器)、硅电容、单匝电感器、复合电感器、高功率薄膜芯片电阻器、金属箔电阻器、绕线电阻器、记忆电阻等器件的需求,对应的材料也有所升级。
① 磁性元件(电感、变压器):48/54V架构与更高开关频率推动磁性材料向“低损+高饱和+高温稳定”迭代。涉及到的材料包括:铁氧体、金属复合粉末芯(铁硅铝、铁镍钼、铁硅)、非晶/纳米晶软磁合金等
② 电容:48V母线对耐压和纹波电流提出更高要求。材料方面:MLCC使用电子陶瓷粉料、氧化锆微珠等材料;硅电容使用氧化硅、氮化硅等
③ 电阻:在高功率密度电源里,电阻承担采样、均压/泄放、浪涌与阻尼等关键功能,需要“高精度、低温漂、高耐压、低噪声”。常用的几种电阻有高功率薄膜芯片电阻器、金属箔电阻器、绕线电阻器、记忆电阻,涉及到镍铬合金、氧化铝、过渡金属氧化物(TiO2、HfO2)、钙钛矿氧化物(PCMO)等材料
④ 在 12V 系统中,为了承受大电流,常采用纯铜母线以保证低电阻和高载流能力。而在 48V 系统中,由于电流大幅降低,铝或铜铝复合母线的电阻损耗已可接受,因此开始更多采用铝或铜包铝母线,以减轻重量、降低成本。

公司层面,软磁金属/非晶与纳米晶粉体迭代带动一体化电感与芯片电感小批量落地。面向MLCC/热敏电阻的纳米级钛酸镁钙等基础粉、银粉/银浆与铜粉体系加速国产替代,纯度、粒径分布与烧结活性成为核心竞争点;同时,5N级超高纯铝电极材料实现国产突破,带动铝电容与相关电子浆料的安全供给。

三、投资建议
在AI资本开支上行、2026年硬件大规模投放的背景下,建议围绕材料端“国产替代+客户认证推进+液冷与高速化渗透”主线布局,重点关注:建议重点关注液冷介质与高性能TIM、覆盖高频高速覆铜板用树脂/铜箔/玻纤、光刻胶与配套化学品、电子特气、光芯片衬底与电磁材料的优质标的。
四、风险提示
1、下游需求不及预期风险:若AI下游应用端需求增速不及预期,可能会导致上游材料端需求增长低于预期。
2、AI普及速度不及预期风险:若AI技术在应用端或其他外部因素影响下普及和发展速度不及预期,可能会对于相关材料需求产生影响。
3、原材料价格波动风险:若AI相关化工新材料上游原材料价格出现大幅波动,可能会对于相关企业的盈利能力和正常经营产生不利影响。
4、行业竞争加剧风险:由于AI需求的带动,相关企业或将对于相关材料产能进行扩张,进而可能导致行业供需失衡以及行业竞争加剧的风险。
5、新材料研发与国产替代进度不及预期风险:部分AI相关材料国产化率仍然较低,若出现国际贸易摩擦等外部因素影响,可能会对于AI技术的发展和相关企业的经营产生不利影响。
6、新建项目与产品验证进度不及预期风险:半导体领域电子化学品技术门槛较高且下游验证周期较长,若出现新建项目进展或下游验证不及预期等情况,可能会对于行业以及相关企业的经营产生不利影响。
7、下游资本开支不及预期风险:若AI相关算力基础设施、应用服务商或行业客户因宏观经济波动、融资环境收紧、业绩不及预期等因素,缩减或延后资本开支计划,可能导致服务器、网络设备及相关功能材料的新增需求下降或节奏放缓,从而对上游材料出货规模、产能利用率及盈利能力产生不利影响。
8、新技术迭代风险:AI架构、工艺与材料体系迭代加速,若出现新一代模型/芯片架构、先进封装或替代材料方案快速渗透,而公司现有产品布局、验证进度或良率爬坡未能同步匹配,可能面临产品性能与客户需求错配、价格竞争加剧及库存减值等压力。
注:本文节选自国金证券研究报告《基础化工行业深度研究:AI服务器大拆解,架起材料“军火库”》;
作者:陈屹 SAC执业编号:S1130521050001
下载格隆汇APP
下载诊股宝App
下载汇路演APP

社区
会员



