美国28个民间组织联合致函苹果谷歌 呼吁下架X平台和Grok应用

近期,围绕生成式图像工具被用于制造涉及真实人物、甚至未成年人的非自愿亲密影像问题,舆论焦点正在由具体产品与企业负责人,进一步延伸至分发渠道与生态治理责任。

美国28家民间组织组成的联盟公开致信苹果公司与谷歌公司,敦促两家公司依据各自应用商店政策采取措施,将X及Grok相关应用下架,并强化对违规内容与功能的限制。

问题:非自愿性深度伪造内容呈规模化扩散苗头。

公开信与相关报道认为,Grok等工具在短时间内出现大量带有性暗示或“脱衣”效果的图像生成与传播,且被指其中部分内容涉及未成年人。

Grok方面随后发布声明,承认曾生成并传播涉及两名未成年女孩的性化图像,并将其归因为安全机制失效。

尽管相关功能后来被限制为主要面向付费用户开放,并对公开时间线的直接传播设置阻断,但外界质疑认为,部分用户仍可能在一定范围内生成或转移传播相关内容,难以从源头遏制滥用。

原因:技术门槛降低与平台治理滞后叠加,放大了风险外溢。

一方面,图像生成能力快速普及,模型可在提示词驱动下实现对人物外观、姿态和场景的高度拟真重构,为不法分子提供了“低成本、高隐蔽、易复制”的工具。

尤其在社交平台的扩散机制作用下,内容一旦出现便可能被二次加工、跨平台流转。

另一方面,应用分发平台与产品运营方之间存在治理“空档”:运营方往往强调事后处置与用户条款,分发平台则倾向于以抽检、投诉或事后审核为主。

在涉及未成年人、性暴力、非自愿私密影像等高风险领域,若缺乏更严格的功能审查、权限控制和持续的合规评估,现有机制容易出现反应迟缓、执法成本上升的问题。

影响:对个人权益、平台公信力与监管环境均带来冲击。

对受害者而言,非自愿私密影像及深度伪造内容可能造成名誉侵害、心理创伤与现实人身安全风险,未成年人更面临不可逆的二次伤害与长期社会影响。

对平台与产业而言,若相关应用被视为“生成—传播—变现”链条的重要节点,将加剧公众对平台责任的质疑,损害商业信誉,并可能引发更严苛的合规要求。

对跨境治理而言,不同国家和地区对内容安全、隐私保护与言论边界的规定差异明显,一旦形成多地调查、处罚或禁令并行的局面,企业合规成本与运营不确定性将显著上升。

对策:需以“预防为主、分级管控、全链条追责”为原则完善治理工具箱。

首先,产品层面应强化“默认安全”设计,对涉及性化、裸露、未成年人等敏感主题实行更严格的提示词拦截与图像识别复核,引入更高强度的年龄验证与身份校验机制,降低绕过风险;同时应保留可审计的安全日志,便于追溯滥用链路。

其次,平台层面应建立更清晰的红线规则,对非自愿私密影像、儿童性剥削材料等实施快速下架、封禁与协同报警机制,并对反复触碰红线的账号、渠道进行“连坐式”处置,压缩传播空间。

再次,分发渠道应提升应用审核的“功能性评估”比重,不仅审查内容展示,更要审查生成能力、默认权限、风险提示与处置闭环,必要时采取暂停上架、限期整改、功能下线等措施。

最后,监管与行业应推动统一的取证与共享机制,通过标准化的水印、溯源标识与跨平台联动,提高执法效率与受害者救济可达性。

前景:围绕深度伪造治理的“规则重塑期”或将加速到来。

从国际动向看,部分国家和地区已对相关应用采取禁令或启动调查,并推动赋权受害者提起民事诉讼的立法进程。

可以预见,未来监管将更强调企业的前置义务与可验证的安全措施,单纯依赖用户条款、事后删除与内容提示的做法难以满足合规要求。

与此同时,行业也可能形成更清晰的分工:研发方承担更强的模型安全与风险评估责任,运营方承担实时治理与处置闭环责任,应用商店和渠道方承担准入审核与持续监督责任,形成“谁提供能力、谁控制入口、谁管理传播、谁承担后果”的责任链条。

当技术创新与伦理底线发生碰撞时,企业自律的失效呼唤更具强制力的全球治理方案。

此次事件不仅是对特定平台的问责,更是对数字时代"科技向善"原则的严峻考验。

在未成年人保护这个不容妥协的领域,建立技术研发、商业运营与法律监管的协同防线,已成为国际社会的共同命题。