英国媒体刚爆料说,美国的Anthropic公司打算把五角大楼告到法院去。这事儿跟美国总统特朗普在2月27日给美国政府下的那道指令脱不开关系。那天特朗普下令别用Anthropic的产品了,五角大楼马上就把这家公司划进了“国家安全风险”名单里。路透社后来发了截图证实这事。 北京师范大学法学院的吴沈括教授是这方面的专家,他在中国互联网协会研究中心也负责不少工作。他在接受总台《闪评》采访时分析说,美国把一家公司定成“国家安全风险”,这招儿其实跟他们以前动不动就把国家安全夸大化的老套路是一模一样的。 吴教授讲得很透,企业觉得搞AI得立个规矩,特别是像不能让AI搞全自主杀人的武器这种涉及伦理的事,得有护栏拦住它。可政府呢,不管这些伦理问题,只管让企业把所有“合法用途”都包揽进去,甚至包括打仗这种军事用途。两边因为各自的底线不一样,最后就冲突起来了。 美国政府觉得企业要是不配合军方的需求,就可能断了供应链,变成不可靠的风险点。但其实这背后是政府要保住权力的排他性,特别是在军事这块儿不想让步。他们这种做法也跟最近美国讲的那个“美国优先”的战略有密切关系。 所以说,这次官司打起来,其实是权力扩张和企业守住伦理底线之间的一种较量。 根据《对话》杂志的说法,这次争论的焦点就是Anthropic开发的那个叫Claude的大型语言模型到底能不能用来打仗。按公司规矩,Claude不能被用来大规模监控美国人,也不能变成那种不用人管就能自己选目标开枪的武器。 之前五角大楼早就给Anthropic下了最后通牒:要么听我们的解除限制,要么咱们解约把你拉黑。但Anthropic没松口。最后Anthropic就被正式列为国家安全供应链风险的实体,联邦机构也都不用它的产品了。 吴教授觉得企业这次打官司是为了守住伦理底线。不过长远来看,他们的日子估计不太好过。他指出美国政府在这次封杀里的法律程序可能有漏洞。他们是用《美国国防生产法》的条款说事的,但那是针对外国对手的规定,不是针对本国公司的。 企业还会拿宪法出来说事:宪法保护言论自由和正当程序权利。官方这次决定太快了吧?直接在社交媒体上宣布的,没走听证会、咨询那些正式的程序。从法律操作角度看,企业是有点道理的。但现在政府已经摆明了不和他们合作了,商业前景肯定很严峻。 吴教授还说这案子对人工智能在各领域尤其是军事上的应用冲击很大。它撕开了所谓“技术中立”的外衣:技术发展到一定程度,像美国政府这样动用国家权力去工具化AI工具的事情就会发生。 这事儿也说明AI军事化有失控的风险:政府这种做法已经超出法律和国际规则的边界了。这会导致全球AI军备竞赛升级。另外这也反映出政企关系的变化:以前企业有底线但现在碰上国家权力很难顶住压力。怎么维持良性的政企关系?这确实是个大挑战。所以啊,赶紧建立起国际治理和法律制度很有必要。