知名演员肖像遭AI技术恶意篡改 专家呼吁加强数字时代人格权保护

随着生成技术迭代加速,“换脸”“拟声”等合成手段从“粗糙可辨”走向“以假乱真”。

王劲松所反映的侵权经历,呈现出当前网络空间中生成内容治理的一类典型风险:在未经授权的情况下,使用公众人物肖像与声音特征制作视频,借助平台传播机制迅速扩散,进而可能衍生诈骗、带货引流等灰色链条。

问题:从“娱乐模仿”滑向“权利侵害”与诈骗隐患 王劲松表示,过去看到合成视频尚能辨别,如今仅凭声音与口型已难判断真假。

更值得警惕的是,侵权内容往往披着“祝福”“拜年”“致辞”等外衣,以更具亲近感和可信度的形式进入社交场景。

一旦被不法分子利用,可能出现假借名人身份发布投资建议、索要转账、引流至私域等行为,使侵权问题与诈骗风险叠加,危害面被进一步放大。

原因:技术门槛下降与流量驱动叠加,治理滞后暴露短板 一是技术能力快速提升。

语音克隆与口型驱动的精度提高,使合成内容在短时间内达到“高拟真”,普通用户难以凭直觉识别。

二是素材获取便利。

公开影视片段、宣传视频、访谈音频等“可训练素材”丰富,为侵权生成提供了低成本原料。

三是流量与变现诱因突出。

部分账号以“热点人物+节庆场景”吸引点击,利用平台推荐机制快速聚拢关注,形成“侵权—传播—收益”的链条。

四是治理环节仍存时差。

对于合成内容的识别、溯源、处置需要技术与规则协同,平台在事前拦截、事中提示、事后追责等方面仍需更强约束与更高效率。

影响:损害人格权益,扰乱传播秩序,放大社会信任成本 对个人而言,未经许可使用肖像与声音,直接侵害肖像权等人格权益,并可能造成名誉受损、商业价值被稀释,甚至引发现实纠纷。

对平台生态而言,虚假内容扩散会劣化信息环境,挤压正常创作空间,增加审核与投诉成本。

对社会治理而言,当“熟人也难辨真伪”的情况增多,公众对网络内容的信任阈值被抬高,重要信息传播的效率与公信力也会受到牵连,最终形成更高的社会信任成本。

对策:以规则为底线、以技术为抓手、以责任为闭环 其一,明确授权边界,压实法律责任。

未经同意制作并传播含有他人可识别肖像、声音特征的生成视频,无论是否直接牟利,均应受到严格约束;若用于诈骗等违法犯罪活动,应依法从严惩处,形成震慑。

其二,平台前置治理要“更快一步”。

对节庆祝福、名人致辞等高风险场景加强审核与风险提示,完善对合成内容的识别模型与拦截策略;对疑似侵权内容提供更便捷的举证、申诉与处置通道,提升处置时效与透明度。

其三,建立“来源可追溯、传播可标识”的管理机制。

推动合成内容显著标识、关键环节水印或指纹化管理,降低“真假难辨”的空间;对反复侵权账号实施分级处罚与跨平台联动治理。

其四,强化公众防范意识。

对“名人祝福”“熟人求助”等视频信息保持核验习惯,涉及转账、投资、引流链接等行为必须多方确认,避免在情绪驱动下被诱导决策。

前景:逼真化趋势不可逆,合规与创新需同步推进 可以预见,生成技术仍将持续提升,合成内容在影视制作、公共服务、教育传播等领域也具有正当应用空间。

关键在于以更清晰的规则、更完善的技术手段和更严格的责任体系,划定“可用”与“滥用”的边界。

对平台而言,治理能力将成为核心竞争力之一;对社会而言,建立更成熟的识别、标识与追责机制,是维护网络空间秩序与公众安全感的重要一环。

AI技术是一把双刃剑。

在为创意表达和娱乐传播带来新可能的同时,也对个人权益保护提出了前所未有的考验。

王劲松事件的曝光,正是一个警示信号。

我们需要在充分利用技术进步的同时,建立起更加完善的法律框架和社会共识,确保创新发展不以牺牲个人权益为代价。

只有平台、监管部门、技术企业和全社会形成合力,才能在AI时代守护好每个人的肖像权和信息安全。