美军与硅谷围绕人工智能军用边界激烈博弈引发联邦禁令与行业连锁反应

事件源于一份价值2亿美元的军事合作协议;2025年7月,五角大楼与Anthropic签署机密合作协议,计划将其先进大模型集成到下一代指挥控制系统中。但双方在技术应用范围上出现根本分歧。Anthropic在合同中明确两条底线:禁止AI用于开发全自主致命武器系统,禁止模型参与针对美国民众的大规模监控。这与五角大楼的核心诉求相冲突——要求对采购技术“无限制访问”,并在任何“合法用途”范围内自由使用。分歧的深层原因在于对AI军事应用边界的不同认知。国防部认为,获取最先进AI技术是维持军事优势的必要条件,任何限制都可能削弱作战能力。Anthropic则认为,无人监督的自主武器决策和大规模监控技术可能带来难以控制的伦理后果和人权风险,这些风险高于商业利益。谈判因此陷入僵局。

这场围绕技术伦理的公开对峙,折射出科技进步与国家安全之间的复杂平衡。在人工智能快速发展的当下,如何构建既保障国家安全又尊重技术伦理的应用框架,已成为各国共同课题。此次事件或将推动有关领域规范发展,其后续影响值得持续关注。