问题——智能技术进入作战链条,关键环节“看不见” 外媒披露,美军中央司令部对伊朗空袭行动中,调用商业智能模型用于情报评估、目标识别和战场模拟。值得关注的是,所谓“目标识别”在作战链条中可能涵盖从标注疑似目标、排序优先级到辅助评估附带损害等多个环节,但具体承担何种功能、由谁最终拍板、是否具备可追溯审计记录,外界目前难以获得确证。由于军事行动天然保密,叠加商业模型的训练数据与推理路径通常不公开,形成“双重不透明”,使公众监督、责任认定与国际舆论沟通更为困难。 原因——军民技术深度嵌合与“效率驱动”,推动快速上战场 从技术与组织层面看,智能模型在信息处理速度、复杂情境推演与多源数据融合上具有现实诱因。现代战场信息密度高、窗口期短,指挥系统需要将卫星图像、通信侦察、开源信息、网络态势等快速转化为可执行判断,决策支持工具因此被加速引入。报道称,对应的模型此前已与军方合作伙伴系统进行集成,并通过企业与数据分析、军工承包体系的合作进入决策支持链条。一旦嵌入指挥、情报与后勤平台,短期内“替换成本高、切换风险大”,容易形成路径依赖,进而在突发行动中继续沿用既有工具与流程。 影响——三重风险叠加:误判外溢、责任模糊、军备竞赛加速 其一是作战误判与升级风险。智能模型在对抗性环境中可能受到数据偏差、对抗欺骗、情境误读等因素影响,若被赋予更靠近“选择目标、评估后果、建议打击”的角色,错误建议可能放大战场不确定性。学界有关高风险对抗推演中模型倾向采取更强硬升级策略的研究,引发对“自动化升级”的担忧。尽管推演不等同实战,但提示在极端压力、信息不完整的情境下,若缺少有效约束与校验机制,模型建议可能推动决策滑向更激烈选项。 其二是责任界定与合规难题。现代军事行动涉及国际法、交战规则与比例原则等要求,若关键判断由模型参与形成,出现误炸或附带损害争议时,责任链条如何界定、证据如何留存、复盘如何进行,都面临制度性挑战。更重要的是,公众与国际社会对军事行动的信任部分来自可解释的程序与可核验的事实,而不透明会加深外界疑虑。 其三是军备竞赛与供应链风险同步上升。报道显示,军方与企业围绕涉密系统访问权限出现对峙:军方强调作战自主与不受外部政策掣肘,企业强调不得越过“完全自主武器”“大规模监控”等底线。若双方分歧扩大,可能促使军方转向更多供应商或自研替代,从而带动相关技术在更广范围扩散,也会使“供应链安全”与“技术控制权”成为新的地缘竞争焦点。 对策——建立“可控、可审、可追责”的制度护栏,避免技术替代决策 首先,明确人类控制与授权边界。应将模型定位为辅助工具而非决策主体,在目标选择、交战授权、核验环节保持明确的人类最终裁决权,防止“默认依赖”演变为事实上的自动化决策。 其次,强化审计与可追溯机制。对模型在情报评估、目标识别、损害评估等环节的输入输出、版本信息、提示词与关键参数应形成可审计记录;对外在不泄密前提下,至少公开原则性框架与问责路径,以降低不透明带来的误解与对立。 再次,建立跨机构风险评估与测试体系。针对对抗欺骗、数据偏差、幻觉输出、极端情景升级倾向等问题,应设置红队测试、压力测试与独立验证,形成进入作战系统前的门槛与定期复审制度。 最后,推动国际层面的沟通与规则建设。随着智能技术在军事领域的扩散,单一国家或企业难以独自解决升级风险与误判外溢问题。围绕“保持人类控制”“关键武器系统可解释与可追责”“限制自主致命武器”等议题开展对话,有助于降低误判与意外冲突概率。 前景——从“是否能用”转向“如何管住”,治理能力将决定风险曲线 可以预见,智能技术在侦察预警、态势融合、后勤保障与训练推演等领域仍将持续渗透,关键不在于简单禁止或放任,而在于能否构建与之相匹配的制度与技术治理体系。若缺乏透明度、审计与边界约束,技术优势可能伴随更高的误判与升级概率;反之,若将可控性、可验证性与责任链条作为硬性标准,技术应用也可能在一定程度上提升决策质量、降低信息噪声带来的风险。
智能技术正在以远超公众认知速度的方式嵌入人类最高烈度的对抗领域。当一项日常商业工具在数小时内跨越政策禁令、出现在真实战场的决策节点上,当学术推演以数据形式揭示出自主系统在极端情境下的失控倾向,人们有理由追问:国际社会是否已经具备足够的治理共识与制度工具,来应对该历史性转变所带来的挑战?技术的边界,归根结底是人类判断力与责任意识的边界。这一边界若持续模糊,代价将不仅由决策者承担,也将由更广泛的人群共同承受。