美军被指在对伊空袭中动用商业智能分析工具 五角大楼与科技企业围绕军事应用边界的博弈持续升温

当地时间2月28日,美国与以色列对伊朗实施联合军事打击;,美军此次行动中仍在使用一家已被政府叫停合作的科技公司的人工智能技术。该技术应用于情报评估、目标识别及作战模拟等关键环节,显示出人工智能在现代战争中的重要地位。此情况引发了外界对美国政府在政策执行与技术依赖之间矛盾的质疑。 原因: 知情人士透露,美国国防部与该科技公司的合作已持续多年。2024年,该公司成为首批获准接入美国国防机密系统的商业人工智能企业之一。其开发的Claude模型因在情报分析和作战规划中的出色表现,成为军方的重要工具。然而,双方在技术应用范围上存在根本分歧:国防部要求完全开放使用权限,而企业方则担心技术可能被用于自主武器系统或大规模监控,触及伦理底线。 影响: 这一冲突已产生多上影响。商业层面,与该科技公司合作的数据分析企业Palantir股价上涨近4%,反映出资本市场对军事科技领域的持续看好。技术生态方面,美国国防部已开始与其他人工智能开发商洽谈合作,以减少对单一技术的依赖。但专家指出,由于现有系统高度整合,完全替换涉及的技术可能需要长达一年的过渡期。 对策: 美国政府采取双轨策略:一方面继续向企业施压,要求放宽使用限制;另一方面加速与其他技术供应商的合作。涉事科技公司则保持强硬立场,其首席执行官公开表示“宁可放弃政府合作也不妥协原则”。这一对峙凸显了科技创新与国家安全之间的复杂平衡问题。 前景: 分析认为,此次事件可能成为人工智能军事化应用的转折点。随着技术快速推进,相关伦理规范与法律框架的缺失问题日益突出。未来,如何在技术创新、国家安全与伦理约束之间找到平衡,将成为各国面临的共同挑战。值得注意的是,这种博弈不仅影响单次军事行动的效果,还可能重塑国际军事竞争格局。

智能技术在军事领域的加速应用,既是技术发展与作战需求推动的结果,也对安全治理和国际规则提出了更高要求。如何在效率与风险之间划定清晰界限,在竞争与约束之间建立可行规则,将决定这些技术是降低误判的工具,还是加剧冲突不确定性的因素。对各方而言,推动透明、可追责、可约束的治理框架已成为必须面对的课题。