问题——新技术快速渗透带来治理新课题。
当前,人工智能、大模型、智能网联汽车等技术从研发走向应用,深度进入生产、生活与公共服务领域,在提升效率、拓展场景的同时,也带来责任主体认定、风险外溢、权利保护等一系列新问题。
历史经验表明,科技进步往往伴生新的违法犯罪形态:互联网普及促进经济社会发展,也滋生网络犯罪。
最高人民检察院工作报告披露,去年起诉利用网络实施犯罪18.2万人,反映出技术红利与治理压力并存。
进入人工智能时代,技术使用边界、算法决策后果以及产业竞争秩序等问题更加复杂,迫切需要法治提供可预期的规则。
原因——技术迭代快、场景跨界多、责任链条长。
新技术问题集中体现在三方面:一是技术更新速度远超传统规制节奏,既有规则在新场景下面临适用困难;二是应用场景跨行业、跨主体,研发者、平台方、使用者、运营者等多方参与,责任链条被拉长,容易出现“权责不清”;三是技术具有外溢性,一旦被滥用,可能造成公共安全风险、侵害个人权益或扰乱市场秩序。
同时,社会对便利的需求上升,部分使用者对风险认知不足,也使得违法成本与侥幸心理交织,增加治理难度。
影响——法治缺位与越位都将抬高社会成本。
规则缺失会放大不确定性,带来安全隐患和权利受损,并削弱公众对新技术的信任,最终反噬产业发展;而若简单采取“一刀切”式过度管制,可能造成合规成本畸高、研发投入趋谨慎,创新活力被压制,影响新质生产力培育。
最高法工作报告提出“坚决依法规制,促进科技向善”,正是要在发展与安全之间寻求动态平衡:既要把底线立起来,也要把空间留出来,让技术在规则轨道内加速前进。
对策——以司法规则回应新风险,同时为创新设定合理容错。
围绕新技术应用中的责任认定,司法实践正在通过案例指引明晰边界。
针对社会关注的智能辅助驾驶问题,最高法通过指导性案例明确:车载辅助驾驶系统不能替代驾驶人成为驾驶主体,醉酒后启用辅助驾驶功能仍应依法承担刑事责任。
这一规则的核心在于明确“技术辅助不等于责任转移”,既回应了公共安全底线,也为产业发展提供清晰的行为预期,防止以技术名义规避法律责任。
与此同时,报告强调准确把握科技创新的“容错”空间,体现了依法规制的另一面——鼓励创新、保护探索。
对某生成式人工智能服务出现差错的纠纷,法院在审查研发者是否尽到合理注意义务、是否造成实际损害等要件后,依法认定不构成侵权。
该裁判思路释放出明确信号:对技术探索中的可控风险与可纠正错误,应坚持过错责任、损害事实等基本法理,以证据和规则说话,避免用结果倒推责任、以个案压力压垮创新主体。
从治理体系看,促进科技向善需要多层次协同:立法层面加快回应新领域新业态的制度供给,完善数据权益、个人信息保护、算法治理、产品安全等制度衔接;执法层面强化对高风险场景的监管与合规指导,提升跨部门协同与风险预警能力;司法层面持续通过典型案例、裁判规则统一尺度,增强可预期性;行业与企业层面建立从研发、测试到部署的全流程合规体系,强化安全评估、伦理审查和应急处置;公众层面提升风险意识与规则意识,形成共同守法、共同受益的社会基础。
前景——在“有为法治”中形成创新与安全的良性循环。
随着人工智能持续迭代并向更多领域扩展,围绕责任边界、权利保护与产业秩序的司法需求将进一步增加。
可以预见,未来规则建设将更加注重分类分级治理:对涉及公共安全、生命健康等高风险领域,提高准入与责任要求;对一般性创新应用,强调合规可行、风险可控与鼓励试错。
通过不断总结审判经验、完善裁判规则、推动制度衔接,有望逐步形成兼顾安全底线与创新活力的治理框架,为我国科技创新与高质量发展提供更加稳定、清晰、可预期的法治保障。
科技向善不是一个遥远的理想,而是一个需要在实践中不断探索的过程。
法治既不能缺位,也不可越位,这一论述深刻揭示了新时代科技治理的核心要义。
在人工智能等新兴技术快速发展的背景下,我们需要以更加成熟的法治思维,在规制与容错、保护与创新之间找到最优平衡点,让科技进步真正造福人类,让法治精神在科技时代闪耀光芒。