问题——未经授权“采集—合成—传播”链条抬头,声音权益面临新型侵扰。
季冠霖在声明中表示,部分网络用户及平台机构在未取得其明确授权的情况下,擅自收集其既有作品中的语音素材,借助人工智能合成技术生成与其声线高度相似的音频,并在影视二次创作、短剧配音、衍生内容制作等场景中传播使用,部分内容甚至涉及商业变现。
她强调,此类行为不仅损害其作为专业配音演员的合法权益,也可能误导公众对作品来源与演绎主体的认知。
原因——技术门槛降低与流量驱动叠加,合规意识与治理能力存在“时间差”。
近年来,语音合成与“音色迁移”等技术快速普及,普通用户以较低成本即可复刻特定声线;同时,短视频与短剧等内容业态追求高频更新,部分创作者以“像真、快产、易传播”为导向,忽视授权程序与权利边界。
另一方面,合成内容往往以剪辑、混音、二创形式出现,识别、取证与溯源成本较高,客观上造成权利人维权不易、平台治理难度上升,形成从素材获取到成品分发的隐蔽链条。
影响——既损害个人权益,也冲击行业生态,并带来公共风险。
业内人士指出,声音作为人格权益与职业资产的重要组成部分,一旦被大规模仿冒,可能引发“被代言”“被配音”“被发声”等风险,造成名誉受损、商业合作受影响,甚至被不当内容牵连。
对行业而言,若侵权成本低、维权周期长,原创配音的价值回报将被稀释,进而影响专业人才培养与内容生产秩序。
对社会层面而言,合成语音若被用于虚假信息传播,还可能放大谣言扩散与诈骗风险,侵蚀公众信任。
对策——明确权利边界、压实平台责任、完善取证与惩戒机制同步推进。
季冠霖在声明中提出三项主张:一是严禁任何机构或个人采集其声音用于模型训练或生成作品;二是未经书面授权,禁止利用其声线制作各类衍生产品并进行二次加工和盈利;三是对既有侵权内容,将依据相关法律法规追究责任,并要求平台及时删除下架。
记者梳理发现,此类维权并非个案。
此前,多位配音演员曾就“声音被克隆”问题公开发声,有当事人已通过诉讼方式维权,释放出以法律手段厘清边界的信号。
法律与治理层面,受访法律人士表示,针对未经同意采集、处理并用于合成的行为,可从人格权益保护、著作权保护、个人信息保护等角度综合判断责任边界。
平台作为信息发布与传播的重要环节,应在受理投诉、快速下架、账号处置、重复侵权治理、技术识别与水印溯源等方面形成闭环,并通过显著标识合成内容、完善授权校验与交易合规机制,降低侵权内容的传播空间。
同时,行业协会与用工方可探索标准化授权文本、合成内容标注规范与“白名单”合作机制,为合规使用提供清晰路径。
前景——以规则为底线推动技术向善,形成可持续的创新生态。
业内普遍认为,人工智能为内容生产带来新工具,但创新不能以侵害权利为代价。
随着合成内容的识别技术进步、平台治理规则完善以及司法裁判经验积累,声音权益保护将更加精细化、可操作。
未来,围绕“授权—标识—追责—补偿”的制度组合若能落地,有望在保护创作者合法权益的同时,为合规的数字内容产业释放更大空间。
季冠霖的声明函不仅是一次个人权益的维护,更是对整个社会如何正确对待新兴技术的一个深刻提问。
在AI技术日新月异的时代,我们既要拥抱创新,也要守护底线。
保护配音演员等创意工作者的合法权益,建立健全的AI技术规范体系,这不仅关乎个人的职业尊严,更关乎文化产业的长远发展和社会信用体系的完善。
随着相关法律的不断完善、平台责任的进一步明确和行业自律的强化,相信AI与创意的关系将逐步走向更加和谐、更加规范的阶段,为整个文化产业的繁荣发展奠定坚实基础。