为什么这么拙劣的骗局能让这么多人相信呢?

2024年以来,很多用AI做的假新闻,像什么“梅西去世”、“金秀贤头七动态”,已经被当成娱乐边角料了。人们对这些假新闻越来越不信任,也越来越没有兴趣。比如有个叫徐某强的人,他就用一款AI工具,随便输入“社会热点词”,就能生成完整的报道。 到了2025年3月,又有一条爆炸性的新闻:一个超一线男星在澳门豪赌七天,输了10.3亿!这个消息在互联网上迅速传播开来。网友们纷纷涌向黄晓明和周杰伦的社交账号去求证,连微博的CEO都亲自下场分析这个漏洞。黄晓明在综艺节目中回应说,这一切都是AI伪造的。他的态度从一开始的戏谑变成了严肃抵抗,这说明了人们的判断力正集体失守。 这次事件让我们意识到,技术能批量生产“真相”,给人类的信任机制带来了很大的冲击。江西省南昌市的一个MCN机构数据显示,他们单日可以批量产出4000到7000条AI谣言。他们利用水军账号矩阵模拟出“全网热议”的假象,让人们误以为这是真事。 公安部网安局调查后发现,造谣者只花了8天行政拘留就搞定了。这个代价与3244万阅读量和近一年的网络扰动相比简直微不足道。为什么这么拙劣的骗局能让这么多人相信呢?因为谣言精准刺中了集体焦虑。它包裹着财富蒸发、道德崩塌和阶层跨越的虚幻复仇等三重诱惑。 平台推荐机制偏爱争议与情绪,“震惊体”标题能在几小时内触发数百万次点击。算法判定其为“高互动潜力内容”后加大推送力度,形成信息茧房效应:一旦用户点击求证,系统就会持续投喂相似内容。 在这次事件中,“梅西”和“周杰伦”成为了载体来宣泄对不平等结构的愤懑。人们并非关心真相,而是需要一个发泄口。AI生成的内容越来越像真的——伪造的声明、合成的语音、拼接的视频都在消解“眼见为实”的传统信条。 抵御AI谣言需要从源头标识属性、建立“谣言熔断”机制和重构“注意力经济”的激励结构。否则,下一个类似的故事只会换个面孔卷土重来。 我们需要守护追问的本能,让真相传播比谎言更有利可图。只有这样才能防止下一个“十亿赌债”故事再次发生。