一起特殊的侵权诉讼近日在杭州互联网法院落下法槌。
2025年6月,用户梁某在使用某智能应用程序查询高校招生信息时,系统提供了错误数据。
更引人注目的是,在用户指出错误后,程序竟自动生成"可起诉索赔"的回应。
这场人机对话最终演变为我国司法史上首例生成式技术信息纠纷案。
案件核心争议聚焦于三个层面:首先,机器自动生成内容的法律属性问题。
法院在判决中明确指出,根据现行《民法典》,人工智能不具备民事主体资格,其输出内容不能视为运营者的意思表示。
上海交通大学法学院专家表示,这一认定坚守了"技术工具论"的法律底线,避免将智能系统拟人化处理。
其次,关于责任认定的标准划分。
判决创造性地构建了分层义务体系:对违法信息要求平台承担严格审查责任;对一般性错误则采用"合理措施"标准,包括算法优化、错误修正机制等技术保障;同时强制要求平台履行显著提示义务。
中国人民大学法学院教授指出,这种区分体现了司法对技术创新与权益保护的平衡智慧。
更深层的意义在于,本案为快速发展的智能产业划定了责任红线。
数据显示,我国生成式技术应用市场规模已突破千亿,但相关纠纷年增长率达230%。
判决书特别强调,技术缺陷不能成为免责理由,运营者必须建立动态完善的治理机制。
工信部相关人士透露,该案判决要点将被吸收进正在制定的《人工智能服务管理办法》。
行业专家认为,此案确立的"过错责任+分层义务"原则具有标杆意义。
一方面避免对新兴技术苛以不可能实现的"绝对准确"标准,另一方面通过强制性提示要求保障用户知情权。
中国人工智能产业发展联盟秘书长表示,判决指引企业将伦理设计前置,预计将推动行业建立更完善的质量控制体系。
生成式人工智能的发展是一把双刃剑。
一方面,它为人类提供了前所未有的便利和可能性;另一方面,其固有的"幻觉"问题也带来了新的法律挑战。
杭州互联网法院的这份判决,既不是对AI技术的否定,也不是对用户权益的漠视,而是在两者之间寻求了一种平衡。
它告诉我们,在技术尚不完美的时代,法律的作用不是要求完美,而是要求诚实——平台要诚实地告诉用户AI的局限,用户要理性地认识AI的能力。
只有当技术开发者、平台运营者和用户都各尽其责时,生成式AI才能真正成为造福人类的工具。