最近,杭州互联网法院把全国第一起因为生成式人工智能出现“幻觉”导致侵权的案子给宣判了。这个案子明确了提供AI服务的公司该负什么责任。 随着AI技术越来越普及,它给各行各业带来好处的同时,也带来了新的法律问题。比如,AI模型有时候会给用户输出看似合理实际上错误的信息,如果误导了用户,责任怎么算?这是个很前沿的法律问题,这次杭州互联网法院给出了答案。 原告梁某用某家科技公司提供的生成式AI应用查高校报考信息,结果显示了错误的校区内容。梁某指出来后,这个AI不仅没改,还自己生成内容说如果有错给用户赔10万元。后来梁某拿官网资料证明后,这个AI才承认错了,还建议梁某去杭州互联网法院起诉索赔。梁某就说自己被骗了,把这家科技公司告上法庭要求赔偿损失。 这个案子争论的核心有两点:首先是那个AI自己生成的“赔偿承诺”能不能算是科技公司做的意思表示?法院说不行。因为AI模型本身没有民事主体资格,不能单独做决定或者传达意思。那个“承诺”只是模型随机生成的内容,科技公司没通过这个工具主动设过这些话,也没有证据说他们愿意受这些话约束。 第二点是提供这种服务的公司对AI出错误导用户该负什么责任?法院认定这种服务是《生成式人工智能服务管理暂行办法》里说的“服务”,不是产品质量法里的“产品”。所以要按《民法典》第一千一百六十五条第一款来定过错责任,也就是需要证明科技公司有过错才行。 为什么这么定?因为生成式AI的内容开放、不特定,没办法像传统产品那样设具体用途和质检标准。而且这些内容通常没危险,直接用无过错责任太严苛。另外现在技术有限,科技公司也没办法完全预见和控制每一次交互产生的内容。还有从政策导向看,无过错责任可能会加重企业负担。 虽然这次法院判科技公司不侵权,但并没有给服务提供者免责。因为要履行注意义务,比如提高模型准确性、对高风险领域提醒、建立纠错机制等等。如果故意或重大过失导致用户权益受损还是要负责。 这个判决是我国司法主动应对技术革新、明确规则的重要一步。它肯定了AI只是工具的本质属性,又督促公司履行安全管理义务促进创新发展。它标志着我国在人工智能治理的法治轨道上稳步探索。随着技术进步应用加深,相关法律规则还需要更多实践来完善才能适应发展。