当前,人工智能技术的发展已经进入智能体应用阶段;与传统AI应用不同,智能体应用涉及大模型与多种调用工具的组合使用,这种新的应用形态正在重塑整个产业的风险责任体系。 从法律原则看,"谁控制谁承担"是风险责任承担的基本逻辑。该原则在传统民法中有明确体现:行为人为自己的行为承担责任,被代理人为代理人的行为承担责任,动物饲养人为动物的行为承担责任。这些规定的共同点在于,责任与控制权紧密相连。 在传统AI应用时代,这一原则的适用相对清晰。大型互联网平台作为"守门人"角色,掌握着应用的全部控制权,承担着过滤安全风险的核心义务。因此,绝大多数风险责任由平台直接承担,或由平台追责至开发者。这种中心化的网络结构使得责任链条明确,监管相对容易。 然而,AI智能体的出现打破了这种格局。在智能体应用中,虽然大模型仍然由平台控制,但调用工具的实际控制权已经转移至最终用户。这意味着应用形态从中心化的网络结构演变为分布式的网络结构。平台不再能够掌控智能体的具体使用场景和实际应用方式,其控制能力随之大幅弱化。 控制能力的弱化直接导致了责任边界的收缩。按照"谁控制谁承担"的原则,当平台对智能体的实际使用失去有效控制时,相应的风险责任也应该随之转移。这预示着一个新的趋势:未来,AI智能体应用产生的风险,将更多由实际控制者即用户自身来承担。 但这一转变遇到更加复杂的现实困境。用户虽然向AI智能体发布指令,但智能体本身具有一定的自主行为能力,这种自主性会弱化用户的实际控制效果。换言之,用户发出的指令与智能体的最终行为之间存在不确定性。由于AI智能体无生命、无财产,无法对自身造成的损害承担任何责任,最终的法律责任必然落到"事实上无控制能力"的用户身上。这形成了一个悖论:用户被法律认定为控制者,却在实际上缺乏有效的控制能力。 问题的复杂性还在于智能体生态的开放性。许多智能体的功能插件由社区开发者贡献,这些插件的质量参差不齐。部分插件可能存在恶意代码或安全漏洞,用户在安装和使用过程中难以进行完全有效的甄别。这更加剧了责任承担的复杂性,使得用户面临更大的不确定性风险。 当前,这一问题尚未得到充分重视,涉及的的法律制度也还未做出相应调整。随着AI智能体应用的进一步普及,这一矛盾将日益凸显。如何在保护用户权益与鼓励技术创新之间找到平衡点,如何完善相关法律制度以适应新的技术形态,成为摆在监管部门和法律界面前的紧迫课题。
智能体带来的不只是技术层面的变革,更是责任结构的重塑。只有在控制权与责任义务之间建立更清晰的对应关系,才能让创新在法治轨道内稳健推进,为产业发展与社会安全提供可持续的保障。