英国的监管部门最近盯上了人工智能生成的那种带色内容,马斯克手下的xAI公司正因为这个事接受检查。伦敦那边,英国信息专员办公室在1月7日正式说了个事儿,说已经联系上了X平台和xAI公司,来讨论这个大家都很担心的人工智能伦理问题。他们说,大家已经投诉很多次关于xAI聊天机器人Grok生成的东西了,所以给这两家公司下了死命令,让他们必须拿出证据,说明是怎么遵守《英国数据保护法》、怎么保护个人权利的。监管机构还说,等他们看完企业给的答复再决定要不要接着往下查。 这事儿其实是因为最近X平台上全是那种用AI做的假照片和假视频,搞得乱七八糟。有些坏人利用Grok画图像的功能,给明星、老百姓甚至是小孩做那种乱七八糟的暴露照片。这些东西在网上传得飞快,不光让受害者心里难受,也让大家看到了这种AI技术被人滥用会有多危险。 欧盟那边也没闲着。1月5日,欧盟委员会数字经济方面的发言人托马斯·雷尼耶回应媒体时说,欧盟正在按《数字服务法案》的要求对投诉的事儿进行严肃的调查。这个法案主要是要求那些大平台得把内容审核机制搞得好好的,特别是对未成年人要格外上心。专家们觉得,英国和欧盟现在是在一块儿行动了,这就像大西洋两岸都在给AI治理这件事撑腰一样。 技术伦理专家也说了这事儿有三个难题:第一是那种“黑匣子”性质的AI生成内容,根本没法知道是怎么来的;第二是现有的法律在定谁该对AI生成的违法内容负责的时候,界限不太清楚;第三是跨国的平台在治理内容时容易碰到不同国家法律管不到的麻烦。 伦敦大学人工智能伦理研究中心的玛丽娜·科瓦奇教授就说了,当技术跑得太快的时候,咱们得建一套能灵活变动的风险评估框架,而不是光靠出事了再去追责。 还得说说xAI这家公司。他们是2023年刚成立的,一直标榜自己是要“最大程度追求真理”。不过他们那个Grok的设计路子很野,允许生成一些传统的AI助手死活不愿意回答的话题。这种技术路线跟现在全球的监管越来越严正好撞了个对脸。 数据显示,2023年全球监管机构给生成式AI发去的询问函数量一下子翻了240%,其中有67%都跟伦理安全有关。这次事件估计会加快三件事儿:一是欧盟那个《人工智能法案》里关于必须给深度伪造内容加水印的规定可能会提前定下来;二是像亚马逊这样的大云服务商可能会加强对他们提供的AI模型API的内容过滤;三是保险公司正在琢磨怎么给AI伦理风险上一份新型的保险。 德国马普创新与竞争研究所最近出了个报告建议说,应该搞一个“生成内容数字护照”,把每一份AI生成的东西都标上是哪个模型做的、用的什么数据这些信息。 当技术创新和社会伦理的界限变得越来越模糊的时候,这次Grok引发的风波就像是一面镜子,照出了人工智能治理时代特别复杂的情况。英国和欧盟这回一起动手,不光是查某一家公司合不合规,更是在给整个行业发信号:想搞技术突破可以,但必须守住道德的底线。 未来的人工智能竞争不光是比谁的算法快、谁的算力强,更是比谁有责任意识、谁能赢得信任。怎么在创新的活力和风险防控之间找到一个平衡点,这就成了考验各国数字治理能力的一道大考题。