数字内容治理新规出台 平台全面禁止AI生成明星形象引热议

一、问题:拟真技术滥用引发法律争议 近期,部分短剧使用AI技术生成公众人物面部特征进行传播,引发广泛讨论。争议主要集中两上:一是未经授权使用真实人物形象可能侵犯肖像权等合法权益;二是商业传播中使用拟真内容可能误导观众,甚至为伪造身份提供技术便利。目前,涉及的平台已表示将加强对公众人物生成内容的限制。 二、原因:技术普及与商业需求催生侵权风险 随着视频生成、人脸替换等技术门槛降低,加之短剧行业追求快速变现的特性,"借脸""仿声"等侵权行为日益增多。部分创作者为博取流量,过度使用"熟脸"吸引关注,却忽视了授权合规问题。 同时,AI生成内容与真实影像的差异逐渐模糊,不仅增加了平台审核难度,也引发了公众对深度伪造技术可能被用于诈骗等违法活动的担忧。 三、影响:平台新规将重塑行业生态 平台已采取多项措施:禁止生成明星姓名、肖像等内容;对所有未授权人物实施统一规范;通过关键词拦截、人脸比对等方式加强审核。仅限用户本人数字分身等特定场景下,经严格验证后才开放相关功能。 这些变化将促使行业转型:一上减少侵权行为,另一方面也引发创作者对创作自由的担忧。如何在致敬、二创等场景中界定合理使用边界,仍需更明确的规则指引。长远来看,新规将推动行业回归原创和合法授权的竞争轨道。 四、对策:构建多方参与的治理体系 业内人士建议建立平台、创作者、权利人协同治理机制: 1. 平台方:提升识别技术,完善审核机制,重点监管商业用途内容; 2. 创作者:强化授权意识,优先使用原创素材,避免造成公众误认; 3. 权利人:建立高效维权机制,探索可行的授权模式; 4. 监管部门:制定统一标识规范,完善责任追溯制度。 五、前景:合规将成为行业新标准 AI技术正在改变影视制作流程,但技术发展需要规则约束。预计未来平台将继续加强内容管控,同时数字身份认证、可验证水印等技术将加速普及。在下一阶段竞争中,建立合规生产体系和授权机制的企业将更具优势。

生成式技术为创作带来便利的同时也提出了新的权益保护要求。此次事件表明,技术进步与权益保护需要协同发展。通过平台规范、行业自律和监管引导的三方合力,才能推动该领域健康可持续发展。