短视频平台和直播间里,模仿他人嗓音的语音素材被售卖,自动生成的虚拟形象以“真人同款”口吻带货或评论热点,甚至有人将逝者形象与声音拼合,制造所谓“重现”。技术门槛降低带来便利,也让人格权益面临新的挑战:当声音可以被合成、面容可以被替换、人格特征可以被批量复制,如何守护每个人“不可替代”的人格尊严,成为数字社会治理必须回答的问题。 问题在于,传统侵权形态多以现实接触为前提,证据线索相对清晰;而在深度合成场景中,侵权链条更隐蔽、传播更迅猛、危害更难逆转。对个人而言,合成声音可能被用于误导交易、诈骗或制造舆论;对公众人物而言,仿声换脸不仅损害名誉与形象,还可能扰乱公共讨论秩序;对逝者及其亲属而言——“数字复活”若缺乏边界——容易触发伦理冲突并造成二次伤害。人格权保护的对象不再仅是现实世界的“照片与录音”,还扩展到数字化再现所呈现的外观、声音与识别性人格特征。 原因主要来自三上:一是技术迭代带来的复制成本骤降,深度合成从专业工具转为大众应用,生成内容的规模化生产成为可能;二是部分商业模式追逐流量与变现,将“逼真”“猎奇”作为卖点,对授权与合规审核投入不足;三是网络传播机制放大了侵权后果,内容一旦扩散,取证、止损和修复名誉成本大幅上升。同时,数字场景下的权利边界、责任主体与举证规则更复杂:制作方、发布方、平台、分发账号等角色交织,容易出现“链条长、责任散”的现象。 影响层面,首先是对人格尊严和个人安全的直接冲击。被合成的声音与形象可被用作虚假背书或恶意诽谤,损害名誉并诱发经济风险。其次是对社会信任的侵蚀。当公众难以辨别真伪,信息环境可能出现“真假混杂、以假乱真”,公共讨论基础被削弱。再次是对创新生态的反噬。若侵权泛滥且治理缺位,技术应用将遭遇信任危机与监管收紧,合规企业与正当创新也会被波及。由此看,完善规则既是保护权利,也是保障产业健康发展的必要前提。 对策上,应在既有法律框架内加快形成更可操作的裁判与治理规则。我国民法典人格权编为人格尊严提供了系统保护基础。近年来司法实践已释放明确信号:自然人声音权益可在特定情形下延伸至合成声音;利用软件制作他人虚拟形象并用于丑化、恶搞等,可能构成肖像权侵害;对含他人肖像的视频进行“换脸”处理,亦可能涉及个人信息权益受损。下一步需要在个案基础上继续明确判断要素,例如是否具备可识别性、是否造成实质性人格贬损、是否存在商业化利用、是否获得充分授权、是否超出必要限度等,使侵权认定与责任承担更具可预期性。 同时,要坚持多元利益衡量,划清红线与留出合理空间并重。对以侮辱诽谤、诈骗牟利为目的的合成内容,应明确禁止并依法追责,形成高压震慑。对纪念用途、特定艺术表达、历史研究与公共利益等情形,则应严格遵循知情同意、最小必要、显著标识、尊重公序良俗等原则,探索可被社会接受、可被司法验证的规范路径。涉及公众人物时,更要审慎平衡人格权保护与公众知情、舆论监督等公共利益,重点审查目的正当性、表达方式是否必要、是否夸张歪曲并造成明显贬损等因素,避免以“公共关注”为名突破人格权底线。 治理还需多方协同形成合力。平台应成为风险防控的关键关口,落实深度合成内容的显著标识义务,完善监测、审核、预警与快速处置机制,对高风险账号和内容加强拦截与溯源,畅通投诉举报与证据留存通道。研发者应把伦理与合规嵌入产品全流程,在模型训练、功能开放、权限管理、使用提示、风控策略等环节前置防护,建立内部审查与外部评估机制,减少工具被滥用的空间。公众也应提升数字权利意识和媒介素养,既要学会保护个人信息与生物识别要素,也要在转发传播时守住底线,不充当侵权内容的扩散者。 面向未来,随着生成式技术持续发展,合成内容将更逼真、更易得、传播更快,治理思路也需要从事后追责逐步转向“规则明确、技术防护、平台把关、社会共治”的综合体系。通过健全裁判规则、细化行业规范、强化标识与追溯、提升公众辨识能力,才能在鼓励创新的同时守住人格尊严的法治边界,让新技术更好服务经济社会发展与公共利益。
筑牢数字时代人格权保护的法治屏障,既是对人格尊严的坚定捍卫,也是互联网持续健康发展的必然要求;在法治的轨道上更好地明确权利边界、平衡多元利益、凝聚社会共识,才能让技术创新在尊重人、保护人的前提下向上向善发展,不断释放创新活力,推动数字社会朝着更加文明、更加有序的方向迈进。