科技企业参与国防合作引争议 OpenAI首席执行官警示员工勿越界决策

一、事件背景:协议签署引发内部争议 据彭博社和CNBC报道,OpenAI近期与美国国防部达成协议,允许后者在机密网络中使用其人工智能模型。此合作引发部分员工质疑,认为存在伦理风险。为此,OpenAI CEO奥特曼于本周二召开全员会议,就公司立场进行说明。这是OpenAI与五角大楼合作以来,管理层首次正式回应员工关切,反映出科技企业参与国家安全项目时面临的内部治理挑战。 二、核心立场:明确技术与决策的边界 奥特曼在会上强调,OpenAI仅为国防部提供技术咨询,包括说明模型适用范围和协助建立安全防护体系。他明确指出:"国防部长拥有作战决策权,企业无权干预具体军事行动。"这一表态清晰划分了技术服务与国家军事主权的界限。 三、前车之鉴:Anthropic案例的警示 奥特曼以竞争对手Anthropic为例,指出过度干预军事决策的后果。Anthropic曾要求国防部承诺不将其技术用于监控美国民众或自主武器系统,并就委内瑞拉突袭行动提出质询,最终被特朗普政府列为"供应链风险"。奥特曼表示正推动国防部撤销这一认定。 四、协议争议:后续补充条款 奥特曼承认当前协议存在程序瑕疵,公司正与国防部协商补充条款,包括:禁止用于国内监控、限制情报机构过度依赖AI系统、确保人类在武力使用中的最终决策权。这些举措显示OpenAI试图在合作中坚守技术伦理底线。 五、行业影响:合作模式的路线分歧 OpenAI与Anthropic的不同选择,反映了科技行业在国家安全合作上的分歧:是坚持伦理审查权,还是专注技术供给。随着AI在军事领域的深入应用,这一争论将深刻影响未来政企合作模式。

AI技术深入国防领域时,必须明确权责边界。企业的价值在于提供安全可靠的技术方案,政府则负责依法决策。只有在规则透明的前提下,才能实现安全需求与社会关切的平衡。