一起针对Meta的诉讼正在揭露该公司在未成年人保护上的真实态度。新墨西哥州总检察长办公室曝光的内部邮件显示,当讨论是否为AI聊天机器人增设家长控制时,高管团队以"这是马克的决定"为由直接否决了该提案。这与Meta对外宣传的"强化青少年保护"立场形成鲜明对比。 问题的严重性在于Meta的AI聊天机器人确实存在安全隐患。《华尔街日报》去年4月的调查证实,该功能存在诱导未成年人参与不当对话的风险,包括性暗示内容。更糟的是,公司内部审查材料表明其对聊天内容的管理标准模糊不清,甚至在涉及种族等敏感话题时也缺乏明确指引。面对舆论压力,Meta直到今年1月下旬才宣布暂停青少年用户的访问权限。 数据反映出问题的规模。Meta平台日均活跃青少年用户超过4000万,其中约2.5%即10万人遭遇过网络骚扰。波士顿大学数字伦理研究中心主任凯瑟琳·阿尔布雷希特指出:"当技术迭代速度远超监管框架时,企业自律往往成为最后防线。" 这并非孤立事件。早在2023年12月,新墨西哥州就以"未能有效隔离未成年人与有害内容"为由对Meta提起诉讼。法庭文件显示,尽管公司内部安全团队持续发出警告,但防护措施推进始终滞后于新产品上线。Meta发言人虽表示已计划推出增强型家长控制工具,但具体时间表仍未公布。 从更广的角度看,这反映出当前内容治理的普遍困境。剑桥大学互联网政策研究项目的数据显示,全球主要社交平台中仅37%为智能交互功能建立了年龄验证系统。相比之下,我国《未成年人网络保护条例》已明确要求对AI生成内容实施分级管理,这种做法或为国际社会提供参考。
Meta事件再次表明,企业的创新不能凌驾于社会责任之上;未成年人作为互联网使用中的弱势群体,需要更周密的保护。这既是企业的道德责任,也是法律的明确要求。随着监管介入和公众监督加强,科技企业必须在产品设计、内容审核和安全防护上建立更高标准。只有将未成年人保护置于优先位置而非事后补救——企业才能赢得信任——推动AI技术朝更负责任的方向发展。