问题——随着大模型训练与推理需求快速增长,数据中心内部互联正从“带宽不足”转向“能耗与散热受限”。
尤其在机架内Scale-Up(纵向扩展)场景中,GPU/加速器之间需要更高带宽、更低时延的互联通道,传统电互连在距离、速率与功耗之间的矛盾日益突出;与此同时,布线密度提升带来的光纤管理复杂度、运维难度与制造一致性问题,也成为超大规模部署的现实门槛。
原因——一方面,AI算力集群对互联的需求呈指数级上升,机架内短距高速链路数量激增,使电互连在高频损耗、功耗与热设计方面承压明显;另一方面,光互连虽然具备带宽与传输优势,但要在机架级实现规模化应用,必须跨越“光电协同设计”的系统工程:从激光器与光学引擎的封装、与AI ASIC的协同集成,到机架供电、散热、工艺与装配流程的全链条匹配,任何一环不成熟都可能影响总体可用性与成本结构。
影响——在行业层面,机架内互联升级正成为数据中心总体能效提升的重要变量。
若互联功耗与热密度持续攀升,将挤压可用于计算的电力预算,抬升制冷与配电成本,并可能限制单机架算力密度的上限。
对设备制造与交付而言,光纤布线与CPO部件的生产可制造性、装配复杂度与现场维护策略,将直接影响产品迭代速度与大规模交付能力。
对运营商而言,可靠性与可维护性是评估新互联路线能否进入主流采购清单的关键指标。
对策——基于上述痛点,Ayar Labs与纬颖提出以“技术堆栈+机架架构”协同推进的合作路径:一是以CPO为核心的光学互连能力,结合激光器与光学引擎等关键部件方案,面向机架内Scale-Up互联进行优化;二是将光互连方案与新一代数据中心机架架构联动设计,围绕AI ASIC集成、光纤管理、散热组织与能效优化进行系统级联合验证;三是在工程落地层面同步聚焦制造可行性与部署可操作性,力求在规模化生产、现场运维与长期稳定性之间取得平衡。
按照双方披露的信息,其展示内容还将覆盖支持高压直流(HVDC)供电的机架架构及全液冷AI系统参考设计,指向“供电—散热—互联”一体化优化的总体思路。
前景——从产业趋势看,光互联向更靠近计算芯片的方向演进,正在成为下一阶段数据中心互联的重点路线之一。
共封装光学若能在成本、可靠性、制造一致性与运维体系上形成可复制的工程范式,有望缓解高带宽互联带来的功耗与热设计压力,并为更高密度的机架级AI系统提供支撑。
与此同时,HVDC与液冷等基础设施技术的加速应用,也将推动数据中心从“单点优化”走向“系统协同”,以适配更高功率密度时代的运行要求。
业内预计,围绕机架级互联的标准化接口、测试验证体系与供应链协同仍将是决定落地节奏的关键变量,相关成果在行业展会集中亮相,将进一步检验其工程成熟度与产业带动效应。
光学互连技术的产业化进程,折射出人工智能基础设施建设正在经历的深层变革。
算力的持续扩张不仅是芯片性能的竞赛,更是系统架构、能效管理与工程集成能力的综合较量。
Ayar Labs与纬颖的合作,是技术创新企业与系统集成商跨越边界、协同攻关的一个缩影。
能否将实验室中的光学优势真正转化为数据中心地板上可规模部署的工程现实,将是检验这一合作乃至整个共封装光学产业成熟度的核心标尺。