问题——推理需求爆发与成本约束并存,数据中心基础设施面临再设计 随着大模型从训练走向规模化推理,行业痛点逐步从“算得出”转向“算得快、算得稳、算得省”;搜索、客服、内容生成、代码辅助等场景中,用户体验高度依赖时延;在企业级落地中,推理成本直接决定商业化可持续性。研报认为,传统以通用加速器为核心的推理形态在部分高端模型场景下存在系统成本偏高、能效压力大等问题,倒逼推理架构与数据中心通信、散热、供电等底座同步升级。 原因——架构从“通用堆叠”走向“按场景优化”,基础设施需匹配高密度与高带宽 研报梳理了多条技术演进线索:一是推理侧出现更强调低时延与确定性的专用加速路径,通过内存与计算组织方式的调整,提升token生成的可预测性与吞吐效率;二是智能体与强化学习推动CPU侧对单线程性能、工具调用、并发沙箱环境的需求上升,CPU平台的重要性在推理链路中被重新评估;三是算力密度持续提升使机架内部互联与供电、散热成为瓶颈,通信上需在铜缆与光互连之间寻找性价比与可扩展性的平衡——散热上液冷占比提升——供电侧高压直流向“标配化”演进。 影响——从芯片到机架再到机房,产业链需求将呈系统性扩散 研报称,针对推理加速的新机架方案强调以低时延任务为核心,机架采用液冷计算托盘形态并提供高带宽scale up能力,旨在提升单位能耗的推理产出。其潜在影响在于:一上可降低推理环节的系统性成本压力,间接改善云服务商与大型算力运营方的盈利结构;另一方面有望加快低时延推理应用的规模化落地,更激活长尾推理需求,带动机架级基础设施与关键器件的增量市场,包括PCB、液冷系统、供电系统、光通信与铜连接等。 通用计算侧,研报提到的新CPU机架方案强调更强的单线程能力与大规模并发环境支撑,可服务大量并行的强化学习与智能体沙箱。研报判断,智能体应用的关键不止在于“生成内容”,更在于“调用工具、执行任务、验证结果”的闭环能力,而这些环节对CPU与网络、存储的协同要求更高。面向该类需求的CPU机架发布,或将推动智能体从“提供建议”进一步迈向“任务执行”,为企业自动化与软件工程等场景打开新的效率空间。 对策——通信、散热、供电三大底座加速定型,工程化路线更趋清晰 在通信架构上,研报给出分场景判断:短期内,机架内scale up域以铜缆仍具现实优势;若采用双层架构,则可能形成铜与光互补;面向更高算力密度的架构,正交背板互联逐步成为重要选项;在跨机架scale out场景,CPO(共封装光学)方案成熟度提升,预计将更快进入规模化应用阶段。上述判断反映出互联正从“以太网/传统光模块为主”向“机架内高密度、跨机架低功耗”的方向演进。 在散热上,研报提到新一代平台在机架形态中全面强化液冷部署,并呈现向“全液冷”推进的趋势。对运营方而言,液冷不仅关系到能效与PUE改善,也直接决定高密度机架能否稳定运行;对产业链而言,冷板、管路、换热、泵阀与系统集成能力将成为竞争焦点。 在供电上,研报指出800V高压直流正在从“可选配置”迈向“数据中心标配”。其背后逻辑在于高密度机架对电能传输效率与损耗控制提出更高要求,高压直流有助于降低电流带来的线损与发热,提升供电系统整体效率与可维护性。 前景——算力形态向“机架级系统工程”跃迁,太空计算释放长期想象空间 研报特别提及太空计算模块的研发动向,认为随着更多生态参与者加入,太空算力有望加快从概念走向工程化验证。其潜在应用包括对遥感、通信与导航等数据的在轨处理,减少回传带宽压力并提升响应效率。尽管太空数据中心仍处早期阶段,但产业链在芯片可靠性、抗辐照、低功耗与系统封装诸上的技术积累,可能为未来新型算力基础设施打开增量空间。 同时,研报也提示需关注不确定性因素,包括技术与应用落地节奏低于预期、行业竞争加剧以及外部环境扰动等风险。总体看,推理侧“低时延、确定性、能效比”目标将继续牵引硬件架构优化;智能体应用的扩展将提升CPU与网络、存储协同价值;而通信、散热、供电的底座升级将推动产业链从单点能力竞争转向系统集成与交付能力竞争。
算力基础设施的核心从“追求更强算力”转向“提升效率与降低时延”。在互连、散热、供电和架构协同上形成可落地的工程化方案,将成为下一阶段推理应用和智能体发展的关键竞争力。