就在今年2025年6月,杭州互联网法院判了个特别的案子,是关于AI“幻觉”侵权的。这事儿其实是从一位叫梁某的用户向AI咨询某高校的校区信息开始的。梁某得到的答案是错的,他当时提醒了AI,没想到这AI不但不改口,还说要是信息错了愿意赔十万块。梁某信以为真,就把这家开发公司告了,要赔损失。这个案子让咱们看到了AI时代新的法律难题:机器生成的内容到底算不算数?责任到底归谁?法院这次判决得挺细。他们先说了,AI目前在法律上既不是人也不是法人,不具备民事主体资格。也就是说,AI自己说的那些话,不能直接代表它背后公司的真实意思。 接下来就讲到了责任认定。法院认为AI服务本质是帮用户生成内容的工具,不是标准产品。所以不能像对产品那样直接适用无过错责任,而是要看有没有过错。要是因为海量生成的内容都得让开发者担责,那会超出他们的能力范围,最后可能搞坏产业发展。法院还给出了一个很有意思的理由:说AI生成的信息本身并不危险。那什么样的行为才算有过错呢?法院列了几条要注意的事儿:首要的是不能有违法有害信息;第二是要给用户提醒说这玩意儿可能不准;第三就是要多用现在大家认可的技术手段来提高准确性。 这个案子里,法院查了被告的各种设定和协议,发现人家早就把风险提示弄得挺明白的。基础模型也备案了安全评估通过了,还用上了检索增强生成(RAG)这种技术来保证信息准。所以法院认定被告在这方面已经尽到义务了。至于原告说的损失,法院查了之后发现没啥实质性的损害。虽然信息有错,但也没真影响到梁某最后怎么报志愿。 最后杭州互联网法院判了:被告不侵权。驳回了梁某的全部请求。这个全国首例的判决可挺重要的。它告诉咱们技术再新也得守规矩。不仅明确了AI不算是独立人格的事实,还划出了企业该守的底线和免责空间。这就像一块路标一样指引着类似的纠纷处理方向,既不让企业背上不必要的责任包褸又鼓励大家好好创新。在科技飞速发展的时候,这次的判决提供了中国司法的智慧样板。