人工智能立法提速提上议程,以法治之力为技术创新护航——从规则缺位到系统治理,中国加快构建智能时代法治新秩序

问题——技术迭代加速与风险外溢并存,治理需求更加紧迫。近年来,生成式技术快速进入内容生产、商业营销、公共服务等场景,提升效率与便利的同时,也带来内容失真、权利侵害和安全风险。全国两会期间,“AI魔改”经典作品引发版权及社会影响争议;深度伪造被用于诈骗、敲诈、造谣等案件的情况也引发关注。与算法推荐、画像定价有关的“算法歧视”“大数据杀熟”等问题同样持续进入公众视野。主管部门数据显示,截至2025年底,已有大量生成式服务完成备案与登记,应用扩张与风险治理呈现同步加速态势。 原因——现行规则相对分散,与新型生产关系变化叠加,制度供给存在滞后。当前数据安全、个人信息保护、网络内容治理等制度持续完善,但多以分领域规定为主。面对生成式技术带来的确权难、责任链难厘清、跨境数据流动以及模型训练合规边界等问题,仍存在衔接不足与适用困境。更深层的挑战在于,人工智能正在重塑内容生产方式与价值分配机制:训练数据的来源与授权、模型输出的独创性与归属、平台与开发者在生成内容传播中的注意义务、用户滥用的追责路径等,都需要更清晰、可执行的法律框架加以承接。 影响——法治短板若不及时补齐,既可能侵害权益,也可能影响产业高质量发展。从公共安全看,司法机关已多次提示诈骗手段加速智能化,利用实时语音深度伪造实施诈骗更隐蔽、更具迷惑性,社会危害更大。对市场秩序而言,算法不透明与责任不清易引发不正当竞争和消费者权益受损,削弱数字经济的信任基础。对创新环境而言,规则不明确会抬高合规成本与不确定性,企业在研发、上线、出海等环节面临预期波动,不利于形成持续投入。同时,全球人工智能规则制定竞争加剧,欧盟《人工智能法案》落地实施,国际经贸与技术合作中的“规则门槛”提高。若缺乏系统性的国内法治供给与规则对接能力,将影响我国参与全球治理与产业竞争的主动权。 对策——以系统立法统筹安全与发展,兼顾底线约束与创新空间。加快研究出台人工智能相关法律,关键在于“划边界、明责任、能落地”。一是明确数据、算法、算力等关键要素的权责框架,细化训练数据合规路径,推动数据来源可追溯、使用可审计、风险可评估,防止以“技术中立”为由回避权利义务。二是建立与风险相匹配的监管机制,探索分级分类治理:对涉及人身财产安全、公共安全、关键领域决策的高风险应用,提高准入门槛、评估频次与审查强度;对一般性工具应用,更多采用备案管理、透明披露与事后追责,避免“一刀切”压制创新。三是坚持“小切口、可操作”的推进路径,优先完善公众关注度高、司法需求迫切的问题配套规则,例如生成内容版权归属与合理使用边界、深度合成标识与传播责任、人工智能辅助犯罪的认定与证据规则等,可通过配套规章、标准体系或司法解释先行细化,形成可复制的治理经验。四是推动全链条治理,将法治要求嵌入研发、训练、部署与运营全过程,压实算法提供者、平台运营者与终端使用者的责任链条,强化标识提示、日志留存、内容审核、未成年人保护、投诉处置等机制,形成“事前可防、事中可控、事后可追”的闭环。五是为创新预留必要空间,探索“监管沙盒”等机制,在可控范围内开展试点示范,鼓励关键技术攻关与合规创新,推动标准、评测与认证体系建设,降低企业合规不确定性。 前景——以法治“硬约束”与制度“软环境”协同,提升国际对接能力与治理话语权。展望未来,人工智能立法将更注重与数据安全、个人信息保护、知识产权、反不正当竞争、消费者权益保护等制度的系统衔接,形成统一、透明、可预期的治理框架。随着法律规则、行业标准与技术治理工具逐步完善,人工智能将在公共服务提质、产业升级增效、科研创新突破诸上释放更大动能。同时,通过积极参与国际规则对话与标准合作,我国有望在全球治理中提出更多兼顾发展与安全的方案,以更具开放性与可操作性的制度供给提升国际合作的稳定性与可达性。

在技术革新与制度建设的相互作用中,法治既是为发展划定边界的安全线,也是稳定预期、保护创新的制度支撑。随着人工智能立法持续推进,我国有望构建兼顾安全与发展、平衡监管与创新的治理体系,为数字时代的技术进步提供更坚实的制度基础。这不仅关系到产业健康发展,也将成为国家治理现代化的重要实践。