| 
 
| 机构看涨液冷技术的核心逻辑在于,AI算力需求爆发与数据中心能耗约束的双重驱动下,液冷技术已从“可选方案”升级为“刚需配置”,而云厂商资本开支的激增则是这一趋势的直接体现。以下从技术必要性、市场需求、成本效益、政策支持及产业链动态五个维度展开分析: 一、技术必要性:算力密度突破风冷极限随着英伟达H100(TDP 700W)、GB300(TDP 1400W)等芯片量产,单机柜功率从传统的20kW跃升至120kW。传统风冷系统在35kW以上功率场景下散热效率显著下降,而液冷技术通过冷板式或浸没式方案,可将PUE(能耗比)从风冷的1.5降至1.04-1.2。例如,微软Azure采用两相浸没式液冷后,数据中心PUE低至1.02,年节能成本超500万美元。这种技术突破直接推动液冷成为AI服务器的标配,英伟达明确表示未来所有GPU产品将转向液冷。 二、市场需求:云厂商资本开支激增北美四大云厂商(谷歌、微软、Meta、亚马逊)2025年Q2资本开支同比暴涨64%,达958亿美元,其中超70%投向AI基础设施。具体来看:谷歌:2025年资本开支从750亿上调至850亿美元,三分之二用于服务器采购,其液冷机柜部署量同比增长180%;微软:Azure所有区域全面支持液冷技术,2026财年一季度资本开支预计超300亿美元;Meta:AI训练集群功率密度达160kW/机柜,液冷渗透率从2024年的15%提升至2025年的40%。这种开支激增直接反映在液冷市场规模上:IDC预测中国液冷服务器市场规模2029年将达162亿美元,年复合增长率46.8%,而全球市场规模2027年将突破260亿美元。 三、成本效益:TCO优势加速技术替代尽管液冷初期投资是风冷的2-3倍(冷板式约500美元/机柜,浸没式1200美元/机柜),但其长期经济性显著:能耗节约:10MW数据中心采用液冷每年可省电费超1200万元,5年内TCO反超风冷;维护成本:故障率下降50%,服务器寿命延长2倍;空间效率:机柜密度翻倍,节省的机房面积可再建一个同等规模的数据中心。中国“东数西算”工程要求新建数据中心PUE低于1.3,液冷成为唯一可行方案。华为实测显示,某数据中心改用液冷后年省电费1200万元,PUE从1.4降至1.1。 四、政策支持:全球绿色算力竞赛中国政策力度领先全球:国家级规划:《数据中心绿色低碳发展专项行动计划》明确要求推广液冷技术,2025年新建智算中心液冷机柜占比超50%;地方实践:上海、广东等地要求新建数据中心PUE低于1.25,液冷渗透率纳入考核指标。国际层面,欧盟“数字十年”计划将液冷列为关键技术,北美云厂商因ESG压力加速液冷部署。例如,Meta AI实验室采用浸没式液冷后,GPU集群温度波动<2℃,训练中断率下降70%。 五、产业链动态:技术迭代与国产替代# (一)技术路线分化冷板式主导:2023年H1中国冷板式液冷服务器占比90%,因其改造成本低、兼容性强;浸没式崛起:微软、谷歌等在超算中心优先采用浸没式,单机柜散热能力达160kW,PUE低至1.04。# (二)供应链重构上游材料:冷却液国产化突破,中石化开发的矿物油成本仅为进口氟化液的1/4;中游设备:台湾厂商奇宏、双鸿占据冷板市场60%份额,国内英维克、申菱环境加速出海,CDU(冷却分配单元)市占率进入全球前三;下游集成:联想、曙光数创推出全液冷解决方案,联想海神液冷技术全球部署超7万套,PUE降至1.1以下。# (三)竞争格局国际巨头:Vertiv、世图兹推出模块化液冷方案,冷量覆盖50-500kW;中国厂商:东阳光与中际旭创成立合资公司,英维克进入英伟达MGX生态,依米康、硕贝德等通过收购切入液冷赛道。 结论:机构看涨的底层逻辑液冷技术的爆发本质是算力革命与能源约束的必然结果。随着GB300、ASIC芯片等新一代硬件量产,液冷渗透率将从2024年的10%跃升至2025年的20%,2027年有望突破40%。云厂商开支激增仅是表象,其背后是AI基础设施重构带来的千亿级市场机遇。机构重点关注两类标的:一是具备全链条整合能力的系统集成商(如英维克、申菱环境),二是核心材料及设备供应商(如东阳光、高澜股份)。短期需警惕供应链波动风险,长期则看好技术迭代与政策红利驱动的行业景气周期。 
 | 
 |