问题:从“训练为王”转向“推理为主”,谁能新周期获得更大增量? 本届GTC大会聚集来自全球多个国家和地区的开发者、研究人员与企业管理者。大会释放的最强信号之一,是人工智能正加速迈入以实时推理、规模化部署与成本核算为核心的新阶段。过去较长一段时间内,行业更关注大模型训练规模与参数增长;而随着应用进入生产环境,推理效率、能耗、散热、交付周期以及全生命周期成本,正成为决定企业能否持续扩张的硬指标。在此背景下,单纯依赖上游芯片性能已不足以形成闭环优势,能够把算力“用起来、用得省、用得稳”的系统级整合能力,正在成为新的竞争分水岭。 原因:token经济性与AI工厂需求上升,推动基础设施从“拼算力”走向“拼工程” 大会期间发布的新一代平台与系统方案,突出强调推理吞吐、单位功耗表现以及token成本下降空间,反映出产业逻辑的变化:企业真正买单的不只是“峰值算力”,而是可持续、可复制的智能产出能力。推理时代的成本结构更加清晰——算力之外,机柜密度、散热方式、数据中心供配电、系统可靠性、运维效率以及全球供应链交付能力,都会直接影响单位token成本与上线周期。 在此趋势下,AI工厂概念升温。所谓AI工厂,本质是将计算平台、系统工程、数据流与应用服务整合成可持续生成“智能产出”的基础设施。它要求软硬件协同,也要求大规模工程化能力。能够提供机架级系统设计、液冷散热、端边云一体化部署、全球制造与交付网络的企业,将在新一轮扩张中拥有更大的话语权。 影响:产业分工更细,基础设施整合者迎来窗口期 GTC现场,黄仁勋在联想展区与联想集团董事长兼首席执行官杨元庆互动,发出双方合作深入加深的信号。业界将其视作对新周期产业分工的一种注解:上游企业在芯片与计算平台上不断定义新标准,而在芯片之上、模型之下的系统层,谁能把算力、散热、系统工程与交付能力打通,谁就更可能把技术红利转化为规模化收益。 从供需两端看,推理部署的快速扩张将带动机架级系统、液冷与数据中心改造需求。企业用户更偏好“可交付、可运维、可扩展”的整体方案,推动服务器从单机性能竞争转向系统与工程能力竞争。此外,全球市场对绿色低碳与能效合规要求不断提高,液冷等节能技术的重要性上升,进一步放大了系统集成与工程化能力的价值。 对策:以混合式AI为牵引,打通端、边、云与液冷系统的工程闭环 联想在大会上重点展示的方向,是以“混合式AI”串联端侧设备、边缘算力与云端数据中心,并在系统层面突出全液冷与机架级设计能力。围绕新平台的首发合作,联想以液冷技术与机架式交付为抓手,将硬件设计、制造与交付网络嵌入AI工厂建设路径之中,意在降低大规模部署门槛,提高单位能耗产出与运维效率。 从行业实践看,混合式AI的意义在于:一上将部分推理与数据处理下沉至端侧与边缘,缓解云端成本与时延压力;另一方面云端集中提供高密度推理与训练能力,形成弹性扩展。若要把这一架构真正落地,必须解决散热、能耗、机柜密度、可靠性与交付周期等工程问题。液冷系统与机架级设计,正是提升密度与能效、支撑规模化推理的重要技术路径。 前景:从“技术展示”走向“生产部署”,2026或成推理规模化落地的关键节点 业内普遍判断,未来竞争将更强调“可持续交付的智能产能”。在这一逻辑下,AI基础设施不再只是数据中心里的设备堆叠,而是面向企业业务连续性与成本目标的系统工程。随着推理需求持续增长,企业将更关注可复制的部署模型、可预测的成本曲线与更快的上线速度。能够提供从端到云、从硬件到系统、从设计到交付的一体化方案的企业,有望在新周期获得更大市场空间。 同时也要看到,推理规模化对电力、能耗、供应链与安全合规提出更高要求。未来一段时间,行业将进入“算力增长与能效约束并行”的阶段:一上需要更强的计算平台,另一方面必须依靠液冷、系统优化与运维自动化,压降综合成本。围绕AI工厂的标准化、模块化建设,以及面向不同行业场景的解决方案能力,将成为企业竞争的新焦点。
人工智能正加速走出实验室,迈向“可运营、可计量、可持续”的产业化阶段。新阶段的关键不在单点领先,而在系统能力与协同效率:把先进算力变成稳定供给,把技术指标变成可控成本,把单点突破变成规模交付,才是推理时代基础设施建设的核心命题,也是产业走向高质量发展的重要方向。