给ai的“胡言乱语”划了道红线,也给服务提供方的注意义务立了规矩

杭州互联网法院刚刚判了全国第一起因AI生成“幻觉”信息引发的侵权纠纷案,大家都在关心人工智能是不是真的会为生成的错误内容买单。事实上,AI虽说给生活带来不少方便,可它并不懂什么叫完全准确,常常会给出些看起来合理、实际上错得离谱的答案。杭州这次的案子里,那个AI干脆承诺说“如果我生成内容错了,我就赔你10万元”,结果还是闹上了法庭。从法院的判决来看,“把生成内容有误将赔偿”这种话,其实不能算是平台的意思。法院把这事儿给整明白了,既给AI的“胡言乱语”划了道红线,也给服务提供方的注意义务立了规矩。 判决特别强调了一点:AI在法律上是没资格成为独立民事主体的。在这个案子里,哪怕AI自己拍着胸脯说要赔钱,这也不算服务提供者在说话。说白了,机器不是人的传话人或者代理人。如果服务提供方没特意让AI去传达“内容错了我赔钱”这种信息,“那个承诺”多半是没有法律效力的。 既然AI没有法律地位,那服务提供方就得负起责任来。按照《生成式人工智能服务管理暂行办法》,生成式人工智能属于服务类别。虽然AI生成的东西不算传统意义上的产品,但平台有责任去严格审查。比如发现违法内容得赶紧处理掉,还要提示用户“别太当真”,不能让大家信了这台机器的邪。 大家要是还有啥疑问或者想了解更多内容,不妨关注下中国经济网的官方微信。