当前,全球AI产业进入加速发展期,大模型训练与推理对算力的需求呈指数级增长,直接带动数据中心互联技术升级。传统可插拔光模块既有场景中表现成熟稳定,但在1.6T、3.2T等超高速互联需求下,功耗偏高、延迟较大等短板逐步显现,成为影响AI算力深入释放的关键因素。 共封装光学(CPO)由此走到台前。其核心在于调整光学器件与交换芯片的集成方式,将光引擎与GPU、交换芯片就近集成并封装在同一模块内,显著缩短电信号传输距离。与传统架构相比,CPO可实现约30%-50%的功耗下降,同时提升带宽密度并降低系统延迟。对追求高性能与高能效的AI算力基础设施而言,这些提升具有直接的工程价值。 从产业发展的驱动力看,需求爆发与技术成熟正在同步推进。一上,云厂商持续加大算力基础设施投入,单台AI服务器的光模块用量已远高于传统服务器,高速互联从“可选”变为“必需”,为CPO打开了明确的需求空间。另一方面,产业链上下游加速攻关关键环节,光引擎、硅光工艺、先进封装等领域进展提速。近封装光学(NPO)作为过渡方案已率先落地,为CPO规模化应用奠定基础。业界普遍预期,2026年将成为CPO商用落地的重要节点,1.6T产品有望进入小批量交付阶段。 从产业链结构看,CPO覆盖上、中、下游多个环节,分工清晰、侧重点不同。上游包括高速激光芯片、光调制芯片、磷化铟等特种材料,技术门槛最高,直接影响性能与成本,也是国产替代的重点方向。中游主要是光模块、光引擎等核心组件,承担光电转换与高速传输,头部企业正推动产品从800G向1.6T乃至3.2T迭代升级。下游涉及先进封装、测试设备、高密度PCB等,对封装精度、可靠性与热管理提出更高要求。 从产业前景看,AI算力的长期景气已成为共识,高速互联升级方向明确。国内企业在光模块与光学组件等环节已具备全球竞争力,有望在新一轮升级中受益。同时也需关注,CPO技术路线仍在演进,NPO向CPO过渡的节奏存在不确定性;竞争加剧可能带来价格压力;部分企业估值处于高位,仍需审慎评估。
算力竞争不仅是芯片与算法的比拼,更取决于能效与互联能力的系统优化。共封装光学的推进,反映了产业对更高速度、更低能耗与更强稳定性的持续追求。把握此趋势,关键在于用工程化路径推动技术落地,通过协同创新打通产业链关键环节,在确定性的需求增长中找到可持续的升级路线。