问题——“换脸”生成内容侵犯肖像权益,普通人更易成为受害者 近日,网络传播的一部AI古装短剧被多方质疑未经许可使用他人照片素材,通过技术手段将人物面部特征迁移至剧情角色,甚至被制作成带有负面形象的配角,引发当事人及网友不满。对应的平台随后对作品进行下架处理,并对涉事出品方采取阶段性限制措施。事件再次将“深度合成”类内容的肖像权保护、作品合规审核与平台责任推至舆论焦点。 原因——成本门槛下降与流量驱动叠加,侵权链条更隐蔽、更批量 多位从业者表示,近一段时期,短剧赛道竞争激烈,部分制作方以“低成本、高产量”为目标,将网络公开图片、社交平台写真、影像片段等作为“训练素材”或“换脸素材”使用,试图以技术包装替代传统拍摄成本。在工具端,相关软件操作门槛持续降低,少量素材即可生成可识别的面部特征,导致侵权更易发生且特点是批量化倾向。 从治理层面看,部分平台审核仍以成片内容检测为主,对素材来源、授权链路、模型训练数据合规性等“前置环节”把关不足;同时,侵权主体通过外包、分包、跨平台分发等方式降低被追责概率,使权利人维权面临取证难、追责链条长等现实障碍。 影响——侵权不仅伤害个人权益,也扰乱内容生态与行业秩序 首先,未经同意使用可识别面部信息,可能构成对肖像权、名誉权等人格权益的侵害。一旦人物形象被嵌入负面剧情,社会评价受损的风险随之上升,且传播越快,修复越难。 其次,侵权成本低、收益高的模式若蔓延,将形成“劣币驱逐良币”的市场环境,挤压合规制作空间,削弱原创动力,损害短剧行业长期发展。 再次,普通人比公众人物更易“被忽视”。公众人物往往具备更强的维权能力与专业支持,而普通人即便发现相似“换脸”内容,也可能因证据固定、侵权主体定位、维权成本等因素而难以及时主张权利,隐性受害面更广。 对策——强化平台责任与源头确权,推动“技术治理+规则治理”并进 一是压实平台主体责任,完善“事前—事中—事后”全链条机制。对深度合成短剧应建立更严格的准入与报备要求,重点核验人物肖像授权证明、素材来源凭证、制作团队实名信息等;对高风险内容提升人工复核比例,完善快速下架、限流、封禁与黑名单制度。 二是推动深度合成标识与可追溯机制落地。对含“换脸”“拟声”等要素的内容,应显著标注合成提示,并通过数字水印、指纹识别等方式增强溯源能力,为后续取证与追责提供技术支撑。 三是强化对出品制作方的合规约束。行业应建立更清晰的授权标准与合同范式,明确肖像使用范围、期限、传播渠道与二次创作边界;对使用网络素材“二次训练、二次生成”的,应明确权属与许可规则,避免以“技术生成”为由规避授权义务。 四是完善侵权救济与惩戒衔接。针对深度合成侵权,建议深入优化证据保全与司法鉴定便利度,提高违法成本;对牟利性、组织化、屡犯的侵权行为,依法从严处置,形成震慑。 前景——从“应急下架”走向制度化治理,将成为短剧行业必答题 值得关注的是,平台近期披露的违规处置数量显示,AI短剧领域的合规风险并非个案。随着技术在内容生产中的应用加速,治理重点将逐步从“发现问题后处理”转向“生产链条前置把关”,并推动形成更可操作的行业标准。可以预期,未来一段时间内,平台审核能力建设、权利人便捷维权通道、内容合成标识规范等将加速完善;合规制作、授权清晰、来源可溯的项目将更具竞争力。
技术创新必须在法律框架内发展。及时处理侵权事件固然重要——但更重要的是建立预防机制——确保每项内容的生成和传播都有据可查、合法合规。唯有如此,内容产业才能实现健康可持续发展。