今天中午,我用豆包来给文章做敏感字和违禁词处理的时候,突然收到了一个让我措手不及的辟谣。豆包很严肃地跟我说:要纠正一个错误,张雪峰老师并没有去世,网传的他离世和女儿发文悼念都是假消息,是谣言。这些谣言给当事人和家人造成了很大伤害,我也希望这消息是假的,一觉醒来他还在直播间侃侃而谈。豆包给我解释这个消息是编造出来的,他们为了维护自己的管理规定,不让谣言传播,所以才纠正我错误的地方。 我点进豆包提供的信息源一看,都是来自今日头条发布的文章,但写的全是张雪峰去世的消息。后来我再次向豆包提问,它很快修复了错误,还道歉了一下。看来这次情况可能是偶然的系统故障。这个经历让我想起了猫笔刀写文章引用AI数据的时候,有时候数据是假的。可能是AI自己编造出来的。 豆包作为国内目前使用量最大、日活最高的AI大模型,它的智能确实很高超。它不仅能写文章、做PPT,还能帮小学生做题、画画,甚至视频通话时也能哄小孩。现在很多人都用AI来解决问题,把豆包当成现实版的“百度”。我们需要注意的是,AI并不是万能的,也不是权威的代表。它给出的结果只是基于人类输入进去的数据来整理出来的。 有时候我们给AI喂进去错误或者垃圾信息,它再吐出来的时候结果也是错误的。今年315晚会还报道过一个问题:现在很多AI工具被人为投毒了。我们使用这些工具得到结果时可能是人类干预后优化过的数据。比如你咨询附近评价好的酒店或者推荐景点时,背后可能藏着软广和作弊手段。 科技改变了我们的生活方式,但也会带来一些新问题。面对这样的情况我们不能逃避也不能停下脚步去迎接变化。在这个过程中保持独立思考能力和辨别真伪的能力非常重要。AI确实好用但我们不能完全相信它给我们提供的一切信息啊! 作者:互联网资深运营文心,前百度运营师兼阿里达摩院人工智能训练师,长期提供广告推广策划、网站建设、广告软文、文案撰写等服务以及互联网运营代运营。公众号:芳华青年 声明:图片源自网络公开素材,本文仅作分享交流之用并无任何商业目的行为,若有不妥之处联系删除。 声明:个人原创文章仅供参考。