生成式人工智能"幻觉"引发侵权纠纷 杭州法院首案厘清平台责任边界

随着生成式人工智能技术的广泛应用,其生成内容的准确性和法律责任问题日益突出。杭州互联网法院最近审理的一起案件中,AI模型自行生成的"内容有误将赔偿"承诺引发争议,成为全国首例对应的侵权纠纷案。 法院认为,AI模型不具备民事主体资格,其自行生成的承诺不能视为服务提供者的真实意思表示。虽然这类技术能高效生成内容,但存"幻觉"现象,即输出看似合理实则错误的信息。如果服务提供者未通过技术手段明确设定相关承诺,就无需为这类"自主声明"承担法律责任。 这个判决为生成式AI服务划定了责任边界。一上,明确了AI不具备独立法律人格,避免将技术行为与企业行为混淆;另一方面,强化了服务提供者的主体责任,要求其对生成内容进行严格审核。 根据《生成式人工智能服务管理暂行办法》,服务提供者需要履行多项义务:及时处置违法内容、优化模型训练,以及向用户明确提示生成内容可能不准确的风险。法院特别强调,服务提供者应通过技术措施和显著告知,防止用户过度信赖AI生成的内容。 这一判决为快速发展的生成式AI产业提供了重要司法指引。未来,随着技术迭代和监管完善,服务提供者需要在技术创新与合规运营之间找到平衡点,通过健全审核机制和风险提示体系,推动行业健康发展。

技术进步并不意味着风险自动消失。对生成式AI服务而言,关键不是让模型说得更像"承诺",而是让平台做得更像"负责"。通过司法裁判厘清边界、制度规范压实责任、产品设计降低误导,才是推动行业健康发展的正确路径。用户在使用有关服务时也应保持警惕,重要信息需多方核实、关键决策应咨询专业人士,从源头减少因轻信而造成的损失。这样才能让技术真正成为可靠助手,而非纠纷根源。