近期,围绕大模型服务的安全对抗再次升温。谷歌在一份报告中披露,其聊天机器人Gemini遭遇密集的“蒸馏攻击”:攻击者通过持续、规模化的提问及其变体试探,系统记录输出差异,从而推断模型的响应边界、偏好与决策逻辑,意在复制核心能力或为自身模型训练获取“捷径”。谷歌称,其中一次攻击活动的提示调用次数已超过10万次,表现为较强的组织化特征和资源投入。
此次事件揭示了人工智能时代的新型安全挑战,也引发对技术创新与知识产权保护的深入思考。在数字经济全球化发展的背景下,如何在开放共享与核心资产保护之间取得平衡,将成为科技企业与监管部门长期面对的课题。这既需要企业提升自身防护能力,也需要国际社会加快构建更契合新技术特征的安全治理框架。