美国防部施压AI企业引发争议 Anthropic坚守安全底线 拒绝不设限授权

(问题) 近期,围绕先进算法能力国防领域的使用边界,美国军方与一家技术企业的分歧公开化。据外媒披露,美国国防部以合同准入为筹码,要求涉及的企业在“任何合法用途”前提下向军方开放大模型能力,并在特定场景中解除安全限制。企业上则表示,理解国防决策由政府部门主导,但美国国内大规模监控、以及完全自主武器系统等应用上,现阶段仍不具备足以覆盖风险的安全条件,因而拒绝按军方要求“无条件放开”。 (原因) 分析人士认为,矛盾的直接触发点在于两类需求的结构性错位:一上,军事部门追求信息处理、目标识别、态势研判等环节实现更高效率与更快闭环,希望技术供应商提供“可随任务变化而扩展”的通用能力;另一上,企业出于法律合规、声誉风险与安全责任考量,倾向通过“护栏”机制限制高风险场景,以减少误用、滥用或失控带来的后果。 同时——近年来大模型能力快速迭代——应用门槛下降,技术外溢效应增强。美国国内围绕隐私保护、执法监管、军民界限等议题争论不断,使得“国内监控”与“自主武器”成为最具争议的敏感场景。军方以“供应链风险”等标签相要挟的做法,也反映出其在大国竞争背景下加速整合关键技术资源、提升体系化作战能力的政策取向。 (影响) 其一,事件可能加剧美国内部对国防采购与技术伦理的对立情绪。若以行政压力迫使企业解除安全措施,短期或可扩大技术可用性,但长期可能削弱企业在安全治理上的投入意愿,反而放大系统性风险。 其二,“供应链风险”标签若被泛化使用,将对美国科技企业生态产生外溢影响。企业在政府与市场之间被迫站队,可能导致合作成本上升、合同谈判更趋强硬,甚至引发其他供应商对合规边界的不确定预期。 其三,对外部而言,美国推动大模型深度嵌入军事体系的动向将继续强化国际社会对军备竞赛与安全困境的担忧。特别是完全自主武器一旦突破“人在回路中”的底线,可能带来误判升级、责任难追溯等新型安全挑战。 (对策) 从治理角度看,减少此类冲突,需要更清晰的制度化安排:一是完善政府采购中的技术安全条款,明确高风险场景清单、审计机制与责任分担,避免以临时性压力替代规则;二是建立第三方评估与可追溯体系,对模型在军事场景下的可靠性、偏差风险、对抗脆弱性进行持续测试,确保“可用”不等于“可控”;三是就自主武器、人权与隐私保护等议题加强跨部门协调,形成可执行的红线与问责机制,使企业在合规框架内提供能力,而非在模糊地带承担无限责任。 企业层面也应提高透明度,明确与政府合作的范围、退出机制与安全承诺,避免在高强度博弈中被动应对。 (前景) 可以预见,随着大模型在情报处理、指挥辅助与后勤保障等领域的价值凸显,美国军方对“通用能力即插即用”的需求仍将上升,类似争议可能在更多供应商之间出现。未来走向取决于两点:一是美国国内能否形成更具约束力的技术治理共识,把“可做什么”与“该做什么”区分开来;二是国际社会能否在自主武器与军事智能化问题上推进有效对话与规则建设,避免技术竞速挤压安全底线。

当算法涉及生死决策,科技企业的伦理坚守与国家安全需求之间的张力日益凸显。这场跨越硅谷与五角大楼的对抗,不仅关乎单项技术的应用边界,更预示着人类社会正面临智能时代治理模式的重构。如何在维护国家安全的同时守住文明底线,将成为各国长期面临的考验。