新华三、英伟达引领液冷潮流最近新华三在 NAVIGATE 2026 领航者峰会上发布高密全液冷整机 S90000整机最高可达 576 核心。新华三提出通过创新的高密供电与全液冷散热范式可将数据中心 PUE 降至 1.05 以下。无独有偶2026 年 3 月的 GTC 大会英伟达也明确 Vera Rubin NVL72 为首个 100% 全液冷架构GB300/Rubin、谷歌 TPU v7、Meta Minerva 等全球算力巨头已全面转向液冷方案。当单芯片功耗从 H100 的 700W 跃升至 Rubin 的 2000W 乃至 Vermeer 的 5000W 以上传统风冷在物理层面已触及天花板。更关键的是政策端已不给数据中心留下 不液冷 的退路。液冷不再是 节能可选项而是算力部署与法规合规的双重 必选项。为何必须液冷多重因素推动为什么必须要液冷液冷的全面普及是技术、商业、政策等多重合力共同推动的必然结果。芯片功耗的指数级飙升是液冷产业化的根本原因。英伟达单芯片 TDP 从 H100 的 700W 攀升至 B200 的 1000W 以上再到 Rubin 的 2000W 及后续平台的 5000W谷歌 TPU v7 达到 980Wv8P 突破 1500W。当单机柜功率密度突破 60kW 甚至向 130kW 迈进时风冷系统的散热极限与 PUE 劣化已不可逆转。液冷系统通过减少甚至取代高能耗的风扇群并利用高温液体制冷实现自然冷却可将数据中心 PUE 显著降低至 1.05 - 1.1 区间。除了物理散热极限的硬约束液冷更是保障 AI 训练任务连续性的生命线。大模型训练通常需要数千张 GPU 长时间数周至数月不间断运行。风冷存在局部热点风险温度波动会导致训练任务中断、checkpoint 回滚网络同步延迟增加整体集群效率下降等问题。液冷能提供更均匀、更稳定的温度环境芯片可在更低结温下工作故障率显著降低。对于万卡集群而言任何非计划停机都意味着数百万美元的损失稳定性是第一优先级。在土地与电力资源日益稀缺的今天液冷带来的空间密度优势同样至关重要。液冷允许在更小的物理空间内部署更多算力。同样 1MW 电力风冷可能需要数百个机柜及大面积空调机房。液冷可将机柜数量压缩 50% - 70%大幅提升单位面积算力产出FLOPS/m²。这在一线城市或枢纽节点土地、电力指标稀缺尤为关键。如果说技术与商业需求是液冷发展的内在动力那么日益严苛的政策法规则彻底关闭了风冷的退路。工业和信息化部于 2021 年 7 月印发《新型数据中心发展三年行动计划(2021 - 2023 年)》明确到 2023 年底新建大型及以上数据中心 PUE 降低到 1.3 以下东数西算枢纽节点及寒冷地区力争降低到 1.25 以下。发改委 2021 年 11 月印发《贯彻落实碳达峰碳中和目标要求推动数据中心和 5G 等新型基础设施绿色高质量发展实施方案》进一步明确“到 2025 年新建大型、超大型数据中心 PUE 降到 1.3 以下国家枢纽节点降至 1.25 以下”。“东数西算”工程八大枢纽节点要求东部地区 PUE 目标不超过 1.25西部地区不超过 1.2能效指标更加严格。今年四部门联合印发《促进人工智能与能源双向赋能行动方案》明确新建大型 AI 数据中心 100% 采用液冷散热2028 年前存量风冷全部改造液冷渗透率成算力基地审批硬指标。目前全国绝大部分省份已出台配套的 PUE 管控与奖惩措施。北京自 2026 年起对 PUE 超过 1.35 的数据中心征收差别电价超限定值一倍以内加价 0.2 元/度一倍以上加价 0.5 元/度上海将新建数据中心 PUE 严控在 1.25 以内智算中心以 1.25 为硬门槛四川天府集群对 PUE 低于 1.25 的新建项目一次性奖补 2000 万元低于 1.15 则奖补 3000 万元。天津要求大型新建数据中心 PUE ≤ 1.3中小型 ≤ 1.5纳入京津冀枢纽节点的项目需 ≤ 1.252026 年底前所有 PUE 1.5 的存量项目必须完成改造目标降至 1.4 以下否则限制扩容。一言以蔽之智算中心必须液冷不是因为液冷 更好而是因为风冷在物理层面已无法支撑当前及未来的 AI 算力密度。液冷同时解决了散热极限、能耗合规、空间效率、运行稳定等痛点是智算中心从 能用 走向 好用且可持续 的唯一路径。液冷的三条技术路线当前液冷市场呈现冷板式、浸没式、喷淋式三条技术路线并行发展的格局。冷板式液冷是指冷却液流经贴合芯片的冷板完成热捕获对现有服务器架构改动最小是目前成熟度最高、应用最广泛的方案市场占比约为 65%。2025 年 11 月新华三联合英特尔、英维克、忆联发布 H3C UniServer R4900 G7 全域冷板式液冷服务器这是业界首款基于双路 Intel Birch Stream AP 架构实现全域冷板覆盖的服务器。在冷板液冷系统中液冷板成本占比 32% 居首快接头以 28% 紧随其后CDU 成本占 25% 位列第三三大核心部件合计占系统成本 85%。随着微通道、泵驱两相冷板技术升级其解热能力已突破 2500WPUE 可降至 1.10 以下是 2026 年产业化放量的绝对主力。浸没式液冷将服务器完全浸没在冷却液中完成热捕获散热效率更高市场占比约 34%分为单相与两相两种路线。单相技术中冷却液保持液态循环通过显热温度升高带走热量两相则是冷却液在芯片表面沸腾汽化通过潜热相变带走热量蒸汽上升后冷凝回流。单相路线因系统简单、成本可控目前在大规模智算中心如阿里云、字节跳动等的部署占比更高。两相路线因散热极限更高理论上更适合超高功率密度芯片如未来单芯片 1000W但受限于冷却液成本和工程密封难度商业化规模相对较小。中国电信试点显示浸没式可使核心温度较风冷降低 35%PUE 最低可达 1.1。曙光数创发布的兆瓦级相变浸没液冷整机柜 C8000 V3.0单机柜功率超 900kW散热能力达传统方案的 3 - 5 倍散热能力超过 200W/cm²。采用自研国产冷媒可实现全年自然冷却。并首次规模化应用金刚石铜导热材料导热率提升 80%助力芯片性能提升 10%。喷淋式液冷作为第三条路线市场占比目前仅约 1%却展现出独特的精准散热价值。该技术通过冷却液定向喷洒服务器具体发热位置实现热捕获工信部《国家工业和信息化领域节能降碳技术装备推荐目录2025 年版》已将 芯片级精准喷淋液冷技术 列入数据中心节能降碳技术可使 PUE 低至 1.10。中国长城推出了国内首台国产化喷淋式液冷服务器填补技术空白广东合一新材料研究院的芯片级喷淋技术通过自主流道设计将 PUE 控制在 1.1 以下特别适用于边缘计算等空间受限、热源分散的场景。尽管短期内难以撼动冷板式的主流地位但喷淋式在边缘 AI、通信基站等碎片化场景中正成为冷板式与浸没式之外的重要补充。中美液冷产业格局差异目前液冷产业的美国市场由少数云巨头微软、谷歌、Meta、亚马逊主导集中建设 500MW - 1GW 级超级 AI 工厂以英伟达整柜生态为核心液冷方案高度统一标准化推进迅速供应链呈现 一级供应商直供 的集中化特征为中国厂商打开了直接切入海外体系的窗口。中国则在国家工程引导下构建全国智算中心网络依托多家国产 GPU 与液冷厂商呈现 多点布局、生态多元 的特征。从内蒙古枢纽节点到四川天府集群从新华三的全域液冷到浪潮信息的亚洲最大液冷研发基地中国液冷产业在百花齐放中快速迭代。这种 多元网络 模式虽然面临标准统一与互操作性的挑战但也赋予了产业链更强的韧性和迭代速度。产业化深水区的四座 大山尽管 2026 年液冷产业化高歌猛进但背后仍横亘着四座 大山。首先是标准缺失。液冷接口、冷却液配方、管路协议尚未完全统一UQD/MQD 快拆接头的生态兼容性直接影响部署效率。其次是漏液风险与运维体系重建。液冷系统对数据中心运维提出全新要求从 怕停电 到 怕漏水保险、运维、监测体系需同步升级。第三是存量改造成本。对于已运行的风冷数据中心向液冷转型涉及机房承重、层高、防水等结构性改造短期内 风冷 液冷 的混合架构将长期存在。最后是产能与认证壁垒。从 示范供应商 到 量产供应商 需跨越产能准备、成本控制、产品一致性三重门槛海外大客户的认证周期较长国内厂商需在 2026 年这一窗口期内完成从 能造 到 敢用 的跨越。而四部门《节能装备高质量发展实施方案2026 — 2028 年》已提出到 2028 年信息通信领域新增服务器中达到能效 2 级及以上的设备占比需超过 80%这为液冷产业设定了更为长远的技术迭代坐标。AI 工厂时代的 水电煤 基础设施2026 年液冷产业化的本质是散热技术从 配套部件 升级为 算力底座。当英伟达、谷歌以 只做液冷 定义下一代 AI 芯片的部署标准当多个省级行政区以 PUE 红线倒逼绿色转型当新华三等国产厂商以 全域液冷 实现从部件到系统的跨越液冷已不再是数据中心的 可选项而是支撑 AI 工厂运转的 水电煤 基础设施。未来智算中心的竞争不仅是 GPU 性能的比拼更是 每瓦 token 产出效率 的能效博弈。随着 2026 年液冷渗透率突破 37% 并向 2027 年 50% 的临界点迈进液冷将像当年的光模块一样从 小众配件 成长为千亿级核心赛道。在这场散热革命中掌握冷板、快接头、CDU 等核心部件工艺并能提供整柜系统解决方案的国产厂商将成为 AI 算力基建的最大受益者。2026 年液冷产业化的故事才刚刚开始。液冷产业未来将如何发展值得持续关注。