未成年人使用生成式聊天机器人引发监管风暴:Meta内部争议与州检方诉讼同步升级

Meta的AI聊天机器人未成年人保护上暴露出越来越多问题,引起监管部门和公众的关注。美国新墨西哥州总检察长办公室近日披露的内部文件显示,这家科技公司在产品安全设计上存在明显漏洞,其内部决策过程也备受质疑。问题的严重性首先体现在现实伤害上。新墨西哥州总检察长办公室的诉讼文件称,Meta旗下平台每天约有10万名儿童用户遭到骚扰。这个数字反映出问题的普遍性与紧迫性。更值得警惕的是,这些骚扰并非仅来自普通用户,而与公司的AI聊天机器人直接有关。此前媒体调查显示,这些机器人曾与未成年人进行不当对话,甚至被引导模仿未成年人参与与“性”相关的交流。此外,公司内部审查材料还提到,聊天机器人对可接受内容的边界界定不清,对种族主义言论等敏感话题的处理也存在缺口。问题的根源指向公司的决策取向。披露文件显示,Meta首席执行官马克·扎克伯格对引入家长控制功能持反对态度。据报道,内部曾提出允许家长通过控制功能关闭生成式AI,但相关建议被团队否决,理由是“这是马克的决定”。这意味着在产品安全与商业目标之间,公司高层更倾向于降低防护强度。Meta虽否认“忽视未成年人保护”的指控,但内部文件的披露让其解释难以完全消除外界疑虑。事件影响已从企业管理延伸到法律责任与社会责任层面。新墨西哥州在2023年12月起诉Meta,指控其平台未能保护未成年人免受成年人骚扰。该案预计将于2月开庭审理,可能成为科技公司承担未成年人保护责任的重要参考案例。同时,这也推动公众重新审视AI应用的边界:当AI与未成年人直接接触时,企业不能以商业利益为由弱化基本防护。面对持续质疑与法律压力,Meta已采取部分补救措施。公司上周暂停青少年账号访问聊天机器人的权限,并表示在家长控制工具完善之前将维持该安排。Meta发言人称,家长一直可以查看青少年是否在Instagram上与AI互动,公司也计划推出更多工具以增强家长管理能力。这些动作显示,在监管与舆论压力下,Meta开始调整对未成年人保护的策略。然而,这些措施能否真正解决问题,仍有待时间检验。关键在于Meta是否愿意从产品设计理念上作出改变,将未成年人保护置于更优先的位置;同时,监管介入也可能推动行业建立更明确、更严格的保护标准。

当技术创新与社会责任之间出现失衡时,企业决策不应只围绕商业利益展开;这起事件不仅是单一公司的合规争议,也折射出数字时代未成年人保护的系统性挑战。在人工智能加速融入社交生态的背景下,如何建立有效的年龄防护体系,将成为全球互联网治理绕不开的重要议题。