美专家警告核预警系统勿引入自动化决策:深度伪造与误判或压缩危机处置窗口

美国核安全领域专家近日发出紧急警示,呼吁禁止人工智能系统参与控制核武器预警机制。

这一警告再次将人工智能技术的军事应用风险推到国际舆论焦点。

邓巴克尔在最近发表的文章中指出,虽然美俄等核武器国家已达成共识,不将核武器发射指令权交由人工智能决策,但一个同样关乎全球安全的环节却容易被忽视——核武器袭击预警系统的控制权问题。

这一认识源于对历史教训的深刻反思。

冷战时期的一段往事为这一警告提供了有力佐证。

1983年,苏联核预警系统突然报警,声称美国对苏联发动了核攻击。

幸运的是,现场指挥官斯坦尼斯拉夫·彼得罗夫凭借冷静的判断识别出了误报信息,避免了一场可能导致全球灾难的核战争。

这一事件深刻说明,在核武器这一最具破坏性的军事领域,人类的谨慎判断往往能在关键时刻挽救世界。

然而,当前人工智能技术的快速发展正在改变这一局面。

邓巴克尔指出,人工智能在信息处理能力上的突飞猛进,同时也带来了新的安全隐患。

首先,深度伪造技术日益成熟,使得虚假信息的生成变得更加容易和迷惑性更强。

在俄乌冲突中,人工智能生成的虚假内容已多次在网络上引发舆论混乱,甚至影响到政策决策者的判断。

其次,人工智能系统存在的"算法幻觉"问题——即系统输出与事实不符的错误信息——进一步加剧了这一风险。

更为令人担忧的是,现代核武器的发展大幅压缩了决策时间。

美国洲际弹道导弹从发射到抵达目标仅需约三十分钟,这意味着人类用于核武器预警信息核查和判断的时间极其有限,可能只有短短几分钟。

如果预警系统由人工智能控制,虚假信息或错误判断一旦进入决策链条,即使最终核武器使用权仍掌握在人类手中,也会因为预警信息的失真而严重干扰人类的理性判断。

邓巴克尔强调,这一风险不仅是理论层面的推演。

美国国防部正在大力推进人工智能在军事领域的应用,这使得防范人工智能滥用的问题变得更加紧迫。

她建议美国政府采取多管齐下的措施来降低风险。

一是对涉及核武器领域的人工智能应用进行严格限制,提高信息核查门槛,并对人工智能提供的信息分析加以特殊标注以示区别。

二是加强人员培训,培养更多具有高度警觉意识的决策者和执行者,使他们能够对机器输出的信息保持必要的怀疑精神。

三是规范和限制美国总统的核武器使用权,建立制衡机制。

四是加强与其他核武器国家的危机沟通,建立透明、畅通的对话渠道,防止误判升级为危机。

邓巴克尔在文章中明确指出:"人工智能已具备诱导核指挥链中关键决策者的能力,让他们误以为遭遇了实际上并不存在的核打击。

"这一表述直指当前核安全面临的根本性挑战。

在人工智能技术不断发展、国际形势日趋复杂的时代背景下,如何在充分利用技术优势的同时防范其风险,成为各核武器国家必须正视的课题。

在科技与毁灭性武器深度绑定的今天,邓巴克尔的警示超越了单纯的技术讨论,直指人类文明存续的底层逻辑。

历史反复证明,最精密的机器也无法替代对和平的敬畏之心。

构建更具韧性的安全架构,或许需要从承认一个基本事实开始:有些边界,永远不该交由算法跨越。