中金研报:算力机柜功率提升加速液冷技术普及 800V直流供电方案日趋清晰

问题——算力密度提升带来散热与供电双重压力;研报指出的关键变化是,新一代GPU和整机系统功耗持续上升,单机柜功率进入更高区间,数据中心原有的散热、供电与能效管理方案面临挑战。以风冷为主的体系高功率密度场景下效率明显走弱,机房空间、噪声与能耗等限制更快显现;同时,供电链路需要在高功率、低损耗、易维护与模块化之间取得平衡,工程难度上升。原因——技术迭代推动基础设施从“配套”转向“系统重构”。研报认为,机柜功率显著抬升后,散热端需要更高效的传热方式与更稳定的温控能力,液冷因此从局部应用走向整机系统渗透。供电侧的升级也不再只盯末端电源,而是延伸到一次电源体系,通过更高电压等级和更短的能量转换链路降低损耗、提高供电密度并增强部署灵活性。也就是说,高功耗算力平台正在推动数据中心从“服务器堆叠”转向“算力-散热-供电协同设计”的新模式。影响——液冷“量价齐升”与高压直流“路径收敛”可能改变产业链节奏。散热上,研报提出,液冷新平台中的渗透率提升,有关部件用量可能随系统形态升级而增加。例如,更多组件采用独立冷却,交换设备液冷化趋势增强,带动冷板、快速接头、管路等配置提升。在单机价值上,冷板工艺升级以及材料和制造复杂度上升,可能推高单机配套价值。除训练平台外,推理侧算力的液冷化也可能带来新增需求,推动液冷从“少数高端场景”扩展到更广泛的算力部署。供电上,研报认为一次电源技术路线正趋于清晰,800V高压直流分布式方案被视为短期更可落地的方向之一。相较传统方案,高压直流有望在降低转换损耗、简化配电链路、提升供电密度诸上体现优势,并可通过模块化适配不同规模、不同扩建节奏的数据中心建设。研报同时提示,相关产品仍有迭代空间,功率等级预计将从现有产品逐步上探,以匹配算力集群持续扩容。对策——以系统工程思维推进算力基础设施升级。研报观点反映出行业共识:数据中心建设需要把散热与供电视为与算力同等重要的底层能力,统一规划。一是提升“机柜级”工程能力,将液冷设计、漏液监测、运维安全、快速交付与成本控制整合为一体化方案;二是推进供电架构升级,围绕高压直流完善标准接口、模块化部署与兼容性设计,提高供应链协同与交付效率;三是以能效为牵引,推动电-热协同优化,通过更高效的供电与散热组合降低整体能耗与运营成本。对企业而言,应在关键部件可靠性、规模化制造与系统交付能力上形成壁垒,避免陷入单点比拼。前景——景气度仍有支撑,但节奏取决于新品放量与商业化落地。研报判断,未来数据中心建设需求仍具韧性,散热与电源两条主线将随算力平台升级持续演进,仍是产业链关注重点。但需求释放受多因素影响,包括新一代算力平台出货节奏、关键部件量产与验证进度,以及高压直流方案的商业化推进速度与工程成熟度。整体来看,随着算力应用从训练走向推理、从集中走向多点部署,单位算力的基础设施投入结构可能调整,液冷与高压直流等方向有望在一段时间内维持较高景气。

底层技术突破带来的产业变革,一方面为碳中和目标提供了新的抓手,另一方面也考验各国在高端制造与供应链上的长期投入与韧性;随着算力与能耗的拉锯进入更复杂阶段,只有持续推进技术创新,并强化产业协同与工程落地,才能在新一轮数字基础设施竞争中占据优势。