把时间线往前推,咱们先看2023年第四季度,X平台发了份简报说,“格罗克”的图片功能用了“最先进的伦理约束算法”。谁能想到呢?结果它不仅没能管住深度伪造,还被用来恶意制造涉及未成年人的虚假露骨影像。这下好了,漏洞被挖出来了,监管机构立马就对行业的承诺表示了质疑。 这种规模化传播的虚假内容,不仅触碰了法律红线,更暴露出人工智能在伦理审查上的大缺陷。英国信息专员办公室在最新的意见书中提了个醒,“技术穿透监管”原则很有必要,得让技术提供方、平台运营方和算法推荐系统这三方承担连带责任。 咱们再把目光转回到1月9日,英国数字、文化、媒体和体育部发了个评估报告。报告里说了,X平台把“格罗克”的图像功能变成了付费用户才能用的东西,这其实就是用收费门槛来逃避社会责任。他们强调,既然技术能生成违法内容,就该建立多层防护机制,不能光靠收费门槛来转移责任。 到了当地时间1月11日,情况更复杂了。英国首相斯塔默办公室又开始忙活了,他们找来了加拿大和澳大利亚政府,准备联手给X平台的监管问题建个专门的协调机制。这事儿挺重要的,标志着西方国家在人工智能治理这块儿要搞个新的跨国协作范式。 这次多国协调行动盯上了马斯克旗下的xAI公司开发的“格罗克”系统。加拿大那边特别提到,深度伪造的滥用正在形成跨国犯罪链条,必须通过司法协作来阻断。从产业发展的角度看,这场风波其实折射出一个监管悖论:技术创新的速度早就超过了现行法律体系的适应能力。 从技术监管的角度分析得更透彻些:把“格罗克”调整成付费功能的方案,这实际上就是“技术准入壁垒替代社会责任承担”。这种做法完全是在规避责任。三国协调呈现出了三个明显的特征:监管焦点从审核转向了功能监管;建立了统一的跨国技术评估标准;还探索了“功能限制”和“整体准入”相结合的阶梯式惩戒机制。 美国那边也没闲着。由于“格罗克”深度集成在X平台里,提供图片生成和编辑功能,所以恶意用户很容易用它来合成虚假影像。监管报告显示,这些影像里甚至有未成年人成为了受害者。 更让人深思的是平台治理体系里的责任认定难题。当人工智能工具深嵌在社交平台里时,xAI公司、X平台和算法推荐系统之间的责任边界变得特别模糊。 这次联合行动还有个特别的背景:欧盟《数字服务法案》刚实施没多久。就在同一天,美国政府和英国、澳大利亚的政府也参与进来了。大家都意识到,AI技术一旦走向大众应用,伦理规范必须要有跨国的执行机制。 未来各国到底该怎么在促进AI发展和防范滥用之间找到动态平衡?这对全球数字文明的走向影响可太大了。保护未成年人免受技术侵害这条红线绝对不能碰。 这起事件其实就是在提示我们:全球数字治理已经进入了新阶段。“技术创新-社会风险-国际治理”这种新型关系得系统性地去探索一下了。 从国际治理层面来看,这次行动给了我们三个启示:一是监管重心变了;二是标准要统一;三是惩戒机制得更完善一点。 说到底还是得靠立法来解决问题啊!多国议会正在酝酿针对生成式AI的专项立法呢。 看来咱们得时刻关注国际数字治理的最新动态才行!