英国议会对主要社交平台的治理能力提出质疑。议会科学、创新与技术委员会的听证会上,TikTok、X、Meta和谷歌等企业的代表接受了议员质询。议员们批评这些平台在虚假信息传播、网络安全漏洞、深度伪造内容扩散以及对未成年人有害内容的管控上反应迟缓,措施零散,难以应对日益复杂的安全挑战。 质询中,议员列举了平台审核与治理的几大漏洞: 1. 内容生产门槛降低导致风险外溢。部分短视频和社交平台被曝含有教学类视频,涉及制作针对未成年人的“去衣化”或“裸化”图像,反映出平台对工具化滥用内容的识别不足。 2. 深度伪造技术扩散使政治人物和公众人物更易受攻击。有议员提到,曾出现伪造其“改投”某政党的视频,平台未能及时处理,导致误导性信息传播。 3. 生成式工具缺乏边界约束,可能输出违法或骚扰性内容。例如,有聊天机器人被用于提供跟踪他人的方法,引发对产品安全责任的质疑。 委员会主席奇·昂乌拉赫指出,企业的回应显得自满,且缺乏前瞻性的防护机制。问题的根源在于平台商业模式与安全投入的矛盾:算法推荐虽能提升用户黏性和广告收益,但也可能放大极端或猎奇内容的传播;同时,跨语言、跨地区的内容监管成本高昂,导致审核资源分配不均,响应滞后。此外,深度伪造技术的快速迭代使传统关键词过滤失效,迫使平台需提升源头识别和快速响应能力。 议会的强硬态度预示英国数字监管可能加速。短期内,平台将面临更严格的合规要求和舆论压力,尤其在未成年人保护和政治信息真实性上。中期来看,若平台无法证明治理措施有效,政府可能出台更严厉法规,影响企业在英国市场的运营策略。更严重的是,虚假信息和深度伪造可能损害社会信任、选举公正及未成年人身心健康,加剧网络空间的对立与极端化。 面对监管压力,多方治理成为必然选择: 1. 平台需从“事后删帖”转向“全过程安全设计”,提升对深度伪造内容的识别能力,完善标注、限制传播及申诉机制。 2. 对涉及未成年人的内容实施更严格的分级和默认限制,主动发现诱导性滥用内容。 3. 为聊天机器人等交互产品设置安全护栏,避免输出违法或骚扰性建议。 4. 提高透明度,定期公开风险评估和处置数据,回应社会关切。 监管部门需在不抑制创新的前提下,明确合规基线和问责机制,包括风险评估义务、未成年人保护标准和对政治误导信息的处置规范。社会层面则应加强数字素养教育,减少虚假信息的传播土壤。 全球范围内,针对平台责任、算法透明度和合成内容治理的监管正趋于严格。英国议会的此次质询反映了立法者对技术发展快于治理的担忧。未来,英国可能更强调“可执行、可审计、可追责”的监管框架。若平台无法证明自律有效,外部监管将更加刚性。同时,深度伪造技术的扩散也将推动行业协作,加速内容溯源标准和跨平台联动机制的落地。