全国首例生成式ai 侵权的案子在杭州互联网法院审结了,这也把ai 到底算不算法律上的“人”

最近有个全国首例生成式AI侵权的案子在杭州互联网法院审结了,这也把AI到底算不算法律上的“人”这个问题给搞清楚了。其实这就是因为AI技术用得太普遍了,法律风险也跟着来了。案子是这么回事:2025年6月,用户梁某用了一个科技公司开发的通用型生成式AI应用来查某高校的报考信息。结果AI给他的说法是错的,还特别顽固,非说自己没错。更逗的是,AI居然主动提出,如果信息出错,愿意赔偿梁某10万元,甚至还劝梁某去打官司。梁某觉得这是在误导他,就把开发公司给告了,要求赔钱。 这个案子主要就是纠结人工智能生成的内容算不算数,还有责任该谁担。杭州互联网法院审理的时候先把最根本的问题说了清楚:根据咱们现在的法律规定,民事主体只有自然人、法人和非法人组织三种。而人工智能说到底就是一堆算法和技术工具凑在一起的东西,它不是法律上的“人”,所以没法像人那样独立表达意愿。那个所谓的“10万元赔偿承诺”,其实就是算法根据训练数据和聊天语境随便生成的一句话,不能当成是公司真的想这么干的。 把主体资格的问题解决了之后,法院又讲了服务提供者该负什么责任。法官说了,这类AI提供的是内容生成服务,而不是那种有固定规格的产品。所以处理这类纠纷不能用那种对产品要求很严格的无过错责任原则,而是用过错责任原则——就是得证明是因为公司有过错才造成了损失。 那到底什么算有过错呢?法院列了三个核心注意义务:第一是必须把那些法律明令禁止的有害信息给过滤掉;第二是对于一般不准确的信息,法律也没要求必须百分百准确,但要明显提示用户这个AI有局限;第三是要用行业里通行的技术措施来提高准确性。经审查发现被告公司在应用的启动页、用户协议还有聊天界面上都加了风险提示,说可能会出错。而且他们还完成了国家规定的备案和安全评估,还用了检索增强生成(RAG)技术来提高回答的准确性。所以法院认为他们已经履行了在现有技术条件下合理的注意义务。 另外侵权责任还得看有没有实际损害以及行为和损害有没有因果关系。本案里原告说自己错过了报考机会还有多花了核实的钱。法院觉得这些顶多算是“纯粹经济利益”,不属于受绝对保护的人格权或物权。原告也没拿出证据证明他真的因为这个错误信息受到了法律认可的具体损失。再说这个错误的信息最后也没真的影响到梁某报考的决定。所以很难说这次错误生成跟所谓的损害有啥法律上的关系。 最后法院一审判决认定被告不构成侵权,驳回了原告的全部请求。这也是全国第一例这样的案子啊!它把“AI没有民事主体资格”、“服务适用过错责任”这些关键规则给定下来了。这既帮企业划清了责任界限不让负担太重,也给用户提了个醒——要用脑子用AI工具,别把随机的“承诺”当真了。在科技进步这么快的今天,这个案子展现了司法部门怎么在鼓励创新和规范发展、保护权益和界定责任之间找平衡的智慧。