国内首例生成式智能“幻觉”侵权案判决生效:平台责任边界与提示义务明晰

一起特殊的侵权诉讼近日在杭州互联网法院落下法槌。

2025年6月,用户梁某在使用某智能应用程序查询高校招生信息时,系统提供了错误数据。

更引人注目的是,在用户指出错误后,程序竟自动生成"可起诉索赔"的回应。

这场人机对话最终演变为我国司法史上首例生成式技术信息纠纷案。

案件核心争议聚焦于三个层面:首先,机器自动生成内容的法律属性问题。

法院在判决中明确指出,根据现行《民法典》,人工智能不具备民事主体资格,其输出内容不能视为运营者的意思表示。

上海交通大学法学院专家表示,这一认定坚守了"技术工具论"的法律底线,避免将智能系统拟人化处理。

其次,关于责任认定的标准划分。

判决创造性地构建了分层义务体系:对违法信息要求平台承担严格审查责任;对一般性错误则采用"合理措施"标准,包括算法优化、错误修正机制等技术保障;同时强制要求平台履行显著提示义务。

中国人民大学法学院教授指出,这种区分体现了司法对技术创新与权益保护的平衡智慧。

更深层的意义在于,本案为快速发展的智能产业划定了责任红线。

数据显示,我国生成式技术应用市场规模已突破千亿,但相关纠纷年增长率达230%。

判决书特别强调,技术缺陷不能成为免责理由,运营者必须建立动态完善的治理机制。

工信部相关人士透露,该案判决要点将被吸收进正在制定的《人工智能服务管理办法》。

行业专家认为,此案确立的"过错责任+分层义务"原则具有标杆意义。

一方面避免对新兴技术苛以不可能实现的"绝对准确"标准,另一方面通过强制性提示要求保障用户知情权。

中国人工智能产业发展联盟秘书长表示,判决指引企业将伦理设计前置,预计将推动行业建立更完善的质量控制体系。

生成式人工智能的发展是一把双刃剑。

一方面,它为人类提供了前所未有的便利和可能性;另一方面,其固有的"幻觉"问题也带来了新的法律挑战。

杭州互联网法院的这份判决,既不是对AI技术的否定,也不是对用户权益的漠视,而是在两者之间寻求了一种平衡。

它告诉我们,在技术尚不完美的时代,法律的作用不是要求完美,而是要求诚实——平台要诚实地告诉用户AI的局限,用户要理性地认识AI的能力。

只有当技术开发者、平台运营者和用户都各尽其责时,生成式AI才能真正成为造福人类的工具。