美科技企业起诉联邦部门 人工智能军事化应用争议升级

一、事件起因:技术授权争议激化政企矛盾 据悉,Anthropic公司此前明确表示,拒绝允许其旗下大型语言模型产品"克劳德"被无限制地用于两类高风险场景:对美国公民实施大规模监控,以及开发全自动致命武器系统;这个立场与美国国防部的需求产生直接冲突。国防部长皮特·赫格塞斯及有关官员公开施压,要求该公司接受"克劳德"所有"合法"军事用途中的部署,并明确警告若不服从将采取惩罚措施。 在谈判陷入僵局后,五角大楼随即将Anthropic列为"供应链风险"企业。这一认定在法律层面切断了该公司与国防部门的业务往来。不容忽视的是,这项认定权力原本专门用于防范外国敌对势力渗透国家安全系统,此次被首次适用于一家美国本土企业,引发法律界和科技界的高度关注。同时,特朗普总统下令联邦机构停止使用"克劳德",并给予五角大楼六个月的过渡期,以逐步替换已深度嵌入多套机密军事系统的相关应用。 二、法律行动:双线出击寻求司法救济 面对上述行政压力,Anthropic于本周一在两个司法管辖区同步提起诉讼:一项诉讼提交至加利福尼亚州联邦地区法院,另一项提交至华盛顿特区联邦上诉法院,分别就政府行动的不同法律层面提出质疑。被告方除国防部外,还涵盖财政部、国务院等已下令员工停止使用Anthropic服务的联邦机构。 该公司在诉状中明确指出,政府的上述行为"史无前例且非法",宪法不允许行政部门动用国家权力惩罚一家企业行使受保护的言论自由权利,且现行任何联邦法律均未授权采取此类行动。Anthropic表示,提起诉讼是维护自身合法权益、制止行政部门违法报复的最后手段。国防部以不评论在诉事项为由拒绝回应。 三、行业影响:竞争格局与政策导向双重承压 此案的外溢效应已在科技行业内部显现。就在政府宣布对Anthropic实施惩罚措施后数小时,其主要竞争对手OpenAI便与五角大楼签署了合作协议。这一时间节点的高度敏感性,使外界对政府是否借助市场手段干预行业竞争格局产生了合理质疑。 对Anthropic来说,此次法律纠纷的商业代价不容忽视。该公司今年预计营收约140亿美元,主要来源于企业客户和政府机构在编程辅助、数据处理等领域的商业应用。根据最新一轮融资信息,公司估值已达3800亿美元,逾500家客户每年向其支付不低于百万美元的服务费用。为稳定客户信心,Anthropic主动向外界澄清,政府惩罚措施的适用范围相对有限,主要影响在国防部项目中使用"克劳德"的军事承包商,对普通商业客户的实际影响可控。 四、深层矛盾:技术伦理与国家安全的结构性张力 此案折射出当前人工智能治理领域一个尚未厘清的核心命题:在国家安全需求与技术伦理约束之间,边界究竟应当如何划定,又由谁来划定。政府上认为,企业无权单方面限制已获政府采购的技术产品的使用范围;企业方面则坚持,对技术滥用风险的自主判断是其履行社会责任的必要前提,不应因此遭受行政惩处。 这一矛盾并非个案。随着人工智能技术加速渗透军事、情报、执法等敏感领域,技术供应商与政府采购方之间围绕使用边界的博弈将日趋频繁。如何在法律框架内建立清晰、可操作的技术授权规则,已成为各方亟需正视的制度性课题。

新技术进入国家安全体系,考验的是规则供给能力与权力边界意识;无论诉讼结果如何,真正需要解决的问题是:如何在安全需求、市场秩序与权利保障之间,建立可执行、可审计、可救济的制度安排——这才是避免争议反复、降低社会成本的根本出路。