人工智能重塑创新格局,知识产权保护制度亟待系统性升级——专家呼吁从训练数据、内容生成到平台责任全链条构建新型保护体系

问题——人工智能正深刻改变内容生产与技术创新方式,但现行知识产权制度的部分规则仍以“人类创作与发明”为基本前提,面对以数据驱动、算法生成、规模化复制为特征的新业态,出现适配不足。

国务院新闻办公室此前在介绍2025年知识产权工作进展时提出,完善人工智能等新领域新业态知识产权保护制度。

业内认为,这一部署直指产业发展中的突出矛盾,既是风险治理的现实需要,也是抢占未来竞争制高点的制度布局。

原因——人工智能全链条涉及“数据获取—模型训练—内容输出—传播应用”,每一环节都可能与著作权、专利权、商业秘密、个人信息保护等制度发生交叉。

一方面,大模型性能依赖海量数据与高频次训练,训练阶段常伴随对网络文本、图片、音视频等内容的抓取、复制、清洗与标注,若缺乏清晰的例外规则与合规路径,开发者易面临著作权侵权、不正当获取数据及个人信息合规风险。

另一方面,生成内容往往由算法在概率机制下输出,人的参与程度因应用场景而异,从“选择提示词与参数”到“实质性创作与编辑”,边界并不天然清晰,导致权属认定、保护范围与侵权比对标准在实践中不易统一。

此外,平台在数据、模型与分发环节拥有更强控制能力,传统互联网领域的责任分配规则在生成式场景下出现“权责不匹配”的新情况。

影响——规则不明将直接抬升创新成本与合规成本,影响模型研发迭代效率,并可能形成新的市场准入门槛:一是训练数据授权若要求逐条取得许可,现实操作难度大、交易成本高,易压缩中小主体创新空间;二是生成内容权利边界模糊,会削弱创作者、企业与用户对成果可预期性的判断,进而影响内容产业、设计制造、软件开发等领域的商业化;三是输出结果与既有作品“接触+实质性相似”的风险,可能引发纠纷高发,尤其在对单一作者或少量作品集中训练的情形下,生成结果与原作表达高度接近的概率上升;四是责任规则不清易导致平台治理缺位或过度审查并存,影响行业生态与社会信任。

对策——专家建议从制度供给、规则细化与治理协同三方面加快推进。

其一,研究确立面向模型训练的合理使用边界。

可结合产业实际与国际通行做法,吸收“文本与数据挖掘”相关制度经验,在不损害权利人正常收益、避免替代性传播的前提下,对为训练目的进行的技术性复制、解析与统计性使用作出更明确规定,形成可操作的合规路径,同时通过必要的退出机制、补偿机制或标识机制,兼顾权利保护与技术进步。

其二,明确数据合理利用规则与合规尺度。

个人信息保护领域应坚持合法、正当、必要原则,细化公开数据用于预训练、再训练的适用条件与安全要求,推动匿名化、去标识化等技术措施落地;企业数据方面可在反不正当竞争法框架下,综合考量数据获取方式、竞争关系、对市场秩序影响等因素,依法规制恶意抓取、破坏性调用等行为。

同时加快公共数据分级分类开放,建设高质量、可追溯的数据资源供给体系,为创新提供稳定“源头活水”。

其三,完善生成内容的权利认定与保护体系。

在版权领域,坚持以人的独创性贡献为核心标准,区分“仅触发生成”与“实质性选择、安排、编辑”的不同情形,形成类型化判断规则,增强司法与市场预期一致性;在专利领域,进一步细化人工智能辅助发明的审查口径,明确发明人认定、技术贡献判断方法及说明书充分公开等要求,推动审查规则与国际实践衔接并体现我国创新实际。

其四,推动平台责任规则与技术治理同步更新。

生成式场景下平台对模型训练数据来源、生成机制与传播链路具有更强控制力,在为训练设置合理使用空间的同时,应同步强化平台的合规义务与风险防控要求,包括数据来源管理、权利人投诉处置、内容溯源标识、重点领域风控与算法治理等,推动形成“技术可控、责任可追、救济可达”的治理闭环,避免简单套用既有“避风港”逻辑导致权责失衡。

前景——业内普遍认为,人工智能竞争在很大程度上是规则与生态的竞争。

随着我国知识产权强国建设深入推进,围绕训练数据、生成内容、平台责任等关键问题加快形成可落地、可预期的制度安排,将有助于降低创新不确定性,促进数据要素合规流通与高水平应用,推动人工智能与文化产业、制造业、科研教育等领域深度融合,并在国际合作与竞争中增强制度话语权。

科技发展日新月异,法律制度亦需与时俱进。

完善知识产权保护体系,既是对创新成果的尊重,更是对未来发展的投资。

在创新与规范之间找到平衡点,将是我国建设科技强国的必由之路。

这需要立法者、司法者、产业界和学术界的共同努力,以更加开放的思维拥抱技术变革,以更加完善的制度护航创新发展。