就在2021年12月1日,前Facebook员工弗朗西丝·豪根在美国华盛顿的国会山作证,揭开了Meta公司长期隐藏的秘密。这位前产品经理泄露了大量文件,让外界看清了公司内部的真实面目:为了满足数据需求,他们宁愿把儿童置于危险中。Meta接连输掉两场官司的消息传出后,整个科技界都坐不住了。虽然这两场官司的案子各有不同,但核心指控出奇地一致:这家公司明明知道产品对未成年人有害,却一直不肯向公众说实话。Facebook聘请社会科学专家研究社交网络服务对用户的影响,原本是想展示自己对创新风险的重视。但布莱恩·博兰这位前高管却指出,如今这些研究反而成了法律上的把柄。他提到有一段短暂的窗口期,Meta允许一些研究人员去审视产品问题,如今这种宽松的环境早已消失。法官给了陪审团大量公司文件看,里面的邮件、演示文稿和内部研究都能说明问题。一项内部调查显示,Instagram上有相当比例的青少年遭受过非自愿性骚扰;另一项研究表明减少使用Facebook能减轻抑郁和焦虑,但这项研究最终被公司叫停。原告律师拿出这些证据来说明Meta有过错,而公司辩护团队则辩称部分内容过时且被歪曲。陪审团听取了双方的陈述后做出了判决:Meta对平台监管不力。在洛杉矶案件中与Meta并肩作战的谷歌YouTube也表示会上诉。 心理学家莉萨·斯特罗曼认为,Meta和整个科技行业的管理层当初没料到研究者会把公众利益看得比公司利益还重要。她觉得研究者们作为普通人也有底线,不会轻易被收买。斯特罗曼提到有不少研究内容被外泄后变成了公关灾难。凯特·布洛克指出豪根的泄密是个重要转折点,“对企业本身、研究者、政策制定者与广大公众都是如此”。很多研究产品危害的团队因此被裁撤,第三方研究者用来分析平台的工具也被移除了。科技监督项目执行主任萨莎·霍沃思表示法庭上用的大多是旧文件,但关键的是提供了真实的背景信息。 当Meta把研究工作视为法律风险时,OpenAI和Anthropic等新兴企业反而加大了投入力度。萨莎·霍沃思说现在的问题是缺乏对聊天机器人、数字助手影响儿童的研究。OpenAI、Anthropic和Meta这几家公司都在抢着进军人工智能领域。 凯特·布洛克对此深表担忧:“与早年的社交媒体一样,公众对人工智能企业针对自身产品开展的研究内容可见度依然十分有限。”布洛克认为人工智能企业有机会不再重蹈覆辙,“我们亟需建立透明与可核查的机制,让企业向公众公开其掌握的平台信息,并支持更多独立评估”。