(问题)随着生成式大模型应用加速渗透,推理算力正成为产业扩张的关键变量。
一方面,互联网、运营商、金融等行业对中心侧推理集群提出更高要求,既要高吞吐,也要低时延与高可靠;另一方面,交通、政务、医疗等场景对本地部署、就近推理的需求上升,要求设备形态更轻量、部署更灵活、运维更简便。
在应用从试点走向规模化过程中,行业普遍面临“中心算力供给与推理效率”“边端部署与业务闭环”“安全合规与成本可控”多重约束,算力体系亟待从单点能力转向全域协同。
(原因)需求快速抬升,既源于应用侧的变化,也与产业政策导向密切相关。
当前,大模型进入“从训练到应用”的新阶段,推理成为持续性投入,且交互更频繁、并发更高、时延更敏感。
与此同时,产业对数据安全、业务连续性、成本效率的考量更趋现实,促使算力向“中心集约+边端下沉”的结构演进。
政策层面,“人工智能+”持续推进,强调以规模化应用带动产业升级与新质生产力培育,推动各行业加快将模型能力嵌入流程、系统与服务之中,这也倒逼基础设施从“能算”走向“算得好、用得起、落得下”。
(影响)在上述背景下,企业围绕推理环节进行产品与方案迭代,将直接影响行业应用落地速度与质量。
大会期间,神州鲲泰推出KunTai A989 I3超节点服务器与KunTai W916 AI推理工作站,意在同时覆盖中心侧推理底座与边端侧推理平台两类关键环节,形成从中心到边端的产品衔接。
其中心侧产品面向大模型集群推理强调高带宽互联、低通信时延与可靠部署能力;边端侧产品则突出紧凑形态、就近部署与面向行业应用的软件适配,旨在提升业务单位在现场侧快速部署与持续运行的能力。
业内观点认为,这种“中心强算+边端可用”的组合,有助于降低应用试错成本,缩短从模型到业务价值的转化链路。
(对策)从产品路径看,神州鲲泰把“全域算力一体协同”作为应对策略:在中心侧,通过超节点架构强化互联与资源调度能力,提升集群推理效率与扩展弹性;在边端侧,以工作站形态提供本地推理能力,适配多样化场景的部署条件与使用习惯。
企业介绍,KunTai A989 I3基于“鲲鹏+昇腾”技术架构并采用灵衢总线,面向标准风冷机房环境,强调高可靠与易部署,支持双机架灵活扩展;同时通过统一内存编址与资源池化思路提升资源利用效率,面向多模态与混合专家模型等典型推理场景提升吞吐与时延表现。
KunTai W916则以塔式紧凑设计满足现场侧部署,强调稳定运行与静音等工程化能力,并面向交通、政务、医疗等行业,围绕主流大模型生态进行应用适配,以便将推理能力更直接嵌入业务流程。
(前景)面向下一阶段,人工智能基础设施竞争将更强调“综合效率”与“场景适配”,即在算力、网络、存储、软件栈与运维体系之间形成可持续的工程闭环。
随着行业对本地化、低时延、可管可控的需求增强,边端推理有望在更多业务单元扩展;同时,中心侧推理集群仍将承担跨区域、跨系统的统一服务与能力供给。
业内预计,能够打通中心与边端协同、兼顾安全与成本、并在关键行业形成可复制方案的企业,将在“人工智能+”规模化落地过程中获得更大空间。
神州鲲泰表示,将持续深耕相关生态,面向金融、运营商、交通、医疗、政务、能源、制造、教育等领域推进产品迭代与方案完善,以提升算力供给的普惠性、安全性与效率。
AI基础设施的完善程度直接关系到大模型应用的广度和深度。
从中心到边端的全域算力协同,不仅是技术层面的进步,更是推动人工智能从"能用"向"好用"转变的关键一步。
随着越来越多企业推出覆盖全场景的AI解决方案,中国AI产业正在形成更加完整、更加高效的基础设施体系,这将为千行百业的智能化升级提供坚实基础,加速新质生产力的培育和发展。