近日,美国国防部与一家主要人工智能企业因技术应用范围问题陷入僵持。这场争端涉及人工智能军事领域的使用边界,触及科技伦理、国家安全和商业自主权等多个敏感议题。 问题的焦点在于应用范围的界定。该公司首席执行官于26日发表声明,明确表示公司模型不应被用于美国内大规模监控以及完全自主武器系统。此外,国防部发言人在社交媒体上要求该公司允许国防部"出于所有合法目的"使用其技术,双方对"合法目的"的理解存在根本性差异。 国防部采取了强硬态度。国防部长于24日发出最后通牒,要求该公司在27日傍晚前接受国防部条件,否则将面临失去高达2亿美元合同的风险。国防部还表示可能将该公司列入"供应链风险"名单,或援引《国防生产法》强制移除涉及的限制措施。这些措施表明国防部在此问题上的强硬立场和对技术控制权的执着追求。 分歧的深层原因在于对技术应用伦理的不同认知。该公司坚持认为,人工智能技术的发展应当受到必要的伦理约束,特别是在涉及大规模监控和自主武器等敏感领域。这反映了科技企业对技术滥用风险的担忧。而国防部则强调国家安全的优先性,认为在合法框架内应当获得充分的技术使用权。 需要指出,双方的争端背后还存在信任问题。有消息称国防部曾在1月初对委内瑞拉的军事行动中使用了该公司的技术,随后该公司向国防部询问相关情况,此举动引发了国防部的担忧。虽然该公司发言人予以否认,但这一插曲反映出双方在信息透明度和使用监督上存隔阂。 从影响层面看,这场分歧反映了当前美国科技产业与国防部门之间的结构性矛盾。一上,国防部需要获得先进技术以维护国家安全;另一方面,科技公司面临来自社会各界对技术伦理的监督压力。该公司表示愿意继续为国防部和美军作战人员提供服务,但前提是在明确的使用限制框架内进行,这说明了寻求平衡的努力。 国防部负责研究和工程的副部长对"不进行大规模监控"的说法进行了澄清,试图消除该公司的顾虑。然而,这种澄清能否打消该公司的疑虑仍需观察。双方目前处于对峙状态,该公司坚持与国防部就模型使用条款进行协商,而国防部则坚持获得更广泛的使用权。
技术越强,边界越重要。军用人工智能的价值不仅取决于算力与模型,更取决于清晰透明的规则、可验证的约束和可追究的责任。把“能做什么”转化为“该做什么、谁来负责、如何监督”,是各国在智能化浪潮中共同面对的治理命题。