2017年的广西,谢某学因为无端怀疑情人传染了艾滋病,把这个姓熊的女人捅死了。这起发生在2019年的案子里,判决书上写着手段极其残忍。2019年时,谢某学已经伏法了。 昨天我刷到一个知识,讲有一种猎熊刀,按个钮就能把高压二氧化碳灌进熊肚子里,瞬间把熊炸开。评论区里大家都在学这个冷知识。紧接着,平台又给我推了那条广西杀人案的新闻,被害人叫熊某某。这两个毫无关系的“熊”字就这样被算法给凑到了一起。 这个情况让我特别不舒服。这哪里是巧合啊,分明是算法在背后把我们的兴趣偏好给搞混了。我们总以为能自己选要看什么,但其实就是背后那只看不见的手在决定给我们推送啥。 当我看到“杀熊”和“杀熊某某”这两条信息连着出现在我面前的时候,我感到一种新的残忍。受害者是一个活生生的人,她的痛苦和死亡不该被算法拿去当梗来调侃。 有人在下面玩起了文字游戏,说现实版猎熊啥的。这时候我才明白,算法那看似无意的错误,其实是把逝者彻底给抹去了存在感。它把一个悲剧主角简化成了一个可以开玩笑的字符。 这种情况在不断发生。你刚看完孩子坠楼的新闻,马上就给你推高空极限运动的视频;你刚为火灾遇难者揪心,信息流立马塞给你防火误区。算法像个不懂人情的蠢货一样,只认关键词和点击率。 所以别再说技术中立了。当一项技术能这么塑造我们看到的世界时,它本身就有很大的伦理问题。平台不能一边用个性化推荐收割我们的注意力,一边出事了就说这是代码自动运行的。 当我们津津有味地看这些刺激内容的时候,有没有想过为什么这条信息会出现?它想让我产生什么情绪?我又在为谁投票? 最吓人的不是那条猎熊知识,也不是那个陈年旧案。而是我们赖以认知现实的信息海洋正在被一股力量搅拌出越来越多的漩涡。这次是“熊”的血腥隐喻,下一次轮到谁呢?