一、合作落地,军民融合迈入新阶段 美国东部时间2月28日,美国人工智能企业开放人工智能研究中心正式对外宣布,已与美国国防部签署合作协议,将该公司研发的智能模型接入五角大楼机密网络系统;该消息甫一公布,即在国际科技与安全领域引发广泛关注。 不容忽视的是,就在协议宣布的前一天,另一家美国科技企业因与五角大楼在技术应用范围上存在根本性分歧而谈判破裂。两相对比,开放人工智能研究中心此番"顺利落地",折射出该企业在商业利益与军事合作之间态度的明显转变。 该公司首席执行官萨姆·奥尔特曼在社交媒体上表示,此次合作遵循公司既定原则,包括不将涉及的技术用于国内大规模监控,以及确保涉及武力使用的决策须由人类负责。他同时声称,公司已建立相应的"安全保障"机制。 然而,据美国彭博社报道,奥尔特曼并未明确禁止将智能工具应用于完全自主武器系统。这一表述上的模糊,令外界对所谓"安全保障"的实际效力产生质疑。 二、转型轨迹,商业逻辑主导战略取向 开放人工智能研究中心的此番举动,并非偶然之举,而是其近年来战略转型的必然延伸。 该公司创立之初以非营利机构面目示人,以推动人工智能技术安全发展为使命。然而随着技术商业价值的持续攀升,其组织性质逐步向营利性企业转化。2024年,该公司开始放宽此前对军事领域应用的明确限制,其公司宗旨表述中亦悄然删去"安全"字样,仅保留"通过人工智能技术造福全人类"的宽泛表述。 在资本层面,该公司于2月27日宣布完成迄今规模最大的一轮融资,融资总额达1100亿美元,公司估值升至7300亿美元。投资者对人工智能技术的高度热情,继续强化了企业追求规模扩张与商业变现的内在动力。 今年早些时候,该公司入选一项奖金总额达1亿美元的军方挑战项目,参与研发语音控制自主无人机群技术。相关文件显示,其智能模型将承担将语音指令转化为数字指令的核心功能。参与同一项目竞争的,还包括太空探索技术公司旗下企业,尽管其创始人埃隆·马斯克此前曾多次公开表示反对开发"用于杀戮的新型工具"。 三、隐忧浮现,安全伦理面临严峻考验 随着人工智能技术加速向军事领域渗透,诸多深层次问题正逐步浮出水面。 其一,技术边界模糊。自主武器系统一旦脱离人类有效监控,其决策逻辑与行为后果将难以预判。当前国际社会尚未就自主致命武器系统的研发与使用形成具有约束力的国际规范,技术扩散的风险不容低估。 其二,伦理约束弱化。从明确禁止军事应用,到逐步开放限制,再到主动寻求军方合作,开放人工智能研究中心的政策演变轨迹清晰体现为商业利益对伦理原则的持续侵蚀。企业自律机制在巨额资本面前的脆弱性,由此可见一斑。 其三,公众信任承压。美联社指出,若消费者将该公司与五角大楼的合作解读为将利润置于安全之上,此类合作极有可能对企业自身形象造成反噬效应。如何在商业扩张与公众信任之间寻求平衡,将是该公司无法回避的现实课题。 四、大国博弈,人工智能军备竞赛加速 从更宏观的视角审视,美国科技企业与军方合作的深化,是美国在人工智能领域强化战略竞争优势这一整体布局的组成部分。近年来,美国政府持续加大对人工智能军事应用的政策支持与资金投入,力图在新一轮科技竞争中占据主导地位。 这一趋势正在推动全球人工智能军备竞赛加速演进。多国政府已将人工智能列为国防现代化的优先领域,相关技术研发投入持续攀升。国际社会对于如何构建有效的人工智能军事应用治理框架,尚未形成共识,这一制度性空白正在成为影响全球战略稳定的潜在风险因素。
人工智能走向军事场景,并非单纯的技术选择,而是牵动战略稳定、伦理规范与产业治理的系统性议题。把"原则"写进声明,不等于把"约束"嵌入技术与制度。面对可能改变战争形态的新变量,国际社会更需要以透明、审慎、可追责的规则框架,防止技术进步被不加节制地导向高风险对抗。