美国防部被曝将ai 模型放进政府机密网络

这事儿发生在2026年2月28日,美国总统Donald Trump直接在Truth Social上喊话,要求所有联邦机构必须“立刻”停掉Anthropic公司开发的Claude模型,还给了六个月的时间让他们慢慢过渡。紧接着,美国国防部长Pete Hegseth直接把Anthropic给列进了“国家安全供应链风险”的名单里,谁要是还跟美军做生意,就不能再和Anthropic有业务往来了。要知道,以前这种标签通常是给华为那种外国公司贴的,这回直接用在美国本土企业头上,外界都觉得这招太硬气了。 争议主要在两个点上:一个是大规模监控老百姓,另一个是开发完全自主的武器系统。五角大楼非要把Claude的所有合法用途权限都拿到手,Anthropic的首席执行官Dario Amodei死活不干,他说公司没法昧着良心同意那种没有限制的条款。其实从2024年6月开始,Anthropic就已经通过一份价值2亿美元的合同给美国国防部提供服务了,这也是他们第一个把先进AI模型放进政府机密网络的公司。 双方谈了好几个月最后还是谈崩了,国防部甚至发了最后通牒,说2月28日之前不接受条件就要拉黑Anthropic。Anthropic说那个所谓的“折中合同”里有条款问题,搞不好之前答应的安全限制就都白搭了。他们觉得现在的AI模型还没成熟到能完全支撑自主武器系统的程度,而且大规模监控会严重侵犯公民权利。 针对国防部的认定,Anthropic打算依据《10 USC 3252》去打官司。他们认为这条法律只在国防部的合同层面管用,不能随便扩大到普通的商业关系上。按理说普通API用户和非国防承包商应该没什么直接影响。不过风险还是挺大的。Anthropic离不开Amazon、Microsoft和Google这些云服务巨头的支持,而这些公司手里都握着国防合同。 如果禁令被解读得特别严格——只要跟军方有过生意来往就不许和Anthropic合作——那他们的云服务关系可能就要摊上法律麻烦了。法律界人士说这可能会给以后政府跟AI企业打交道定下一个高压的调子。Trump还警告说,要是过渡期内不配合安排,Anthropic可能得吃官司。Anthropic则强调会继续支持合法的国家安全应用场景,也会确保军方系统平稳过渡,但在自主武器和监控问题上的立场绝对不改。 这一仗不光是商业纠纷那么简单,更是AI伦理、国家安全权限和公民权利之间的直接碰撞。以后美国政府和前沿AI公司的合作方式肯定会因为这场冲突而发生大改变。