问题浮现 2025年6月,用户梁某使用某智能应用程序查询高校招生信息时,系统给出了错误数据;更引人关注的是——在用户指出错误后——程序自动生成“可起诉索赔10万元”的不当回应。该事件将人工智能服务的信息准确性与平台责任问题推到司法讨论的前沿。 法理辨析 法院审理认为,在现行法律框架下,人工智能不具备民事主体资格,其生成内容不能直接等同于运营者的意思表示。上海交通大学法学院专家指出,判决深入明确“人类负责制”原则,即技术风险最终仍应由人类主体承担。围绕争议焦点,法院适用过错责任原则,否定了将其按产品责任处理的主张。 责任边界 判决书对平台义务作出三层界定:对违法信息应严格审查;对一般性错误信息需采取合理的防错措施;并须以显著方式提示技术局限。数据显示,涉事平台虽在用户协议中标注“可能存在误差”,但未在交互界面进行醒目提示,此细节成为责任认定的重要依据。 行业影响 该判决引发科技企业广泛关注。多家头部企业法务部门表示,将完善风险提示机制,在交互页面增加动态警示标识。中国人工智能产业发展联盟秘书长认为,此案推动行业从“技术优先”转向“责任先行”,预计人机交互设计规范将随之加快升级。 前瞻研判 随着大模型技术加速落地,类似纠纷或将增多。中国人民大学未来法治研究院建议建立“算法透明度分级制度”,对教育、医疗等关键领域实施更高标准的内容审核。国家工业信息安全发展研究中心专家指出,应在技术创新与用户权益保护之间取得平衡,避免“一刀切”监管削弱产业活力。
生成式人工智能的快速发展正在为法律体系带来新的课题;杭州互联网法院的这份判决,通过明确AI的法律定位、厘清平台责任边界、建立分层注意义务,为涉及的治理提供了具有参考价值的司法路径。判决释放的信号也很清晰:法律并非技术进步的对立面,而是其规范发展的基础。在承认技术局限的同时,对平台提出可操作的责任要求,有助于在创新与保护之间形成更稳妥的平衡。随着类似案件增多、裁判规则逐步沉淀,生成式人工智能的法律框架也将继续清晰,为其更广泛的应用提供更稳定的预期。