ai 聊天机器人太不靠谱,假视频根本没辙

哎,最近看到一个挺扎心的报道,说主流的AI聊天机器人其实挺不靠谱的,面对伪造视频根本没辙,虚假信息治理这下子麻烦大了。你看现在视频生成技术发展得多快,特别是像Sora这种模型出来后,想弄个以假乱真的视频简直易如反掌。可要是用这些工具去检验鉴别系统的话,就会发现它们这块盾根本抵挡不住这种攻击。 媒体机构Newsguard最近做了个挺有意思的调查,专门挑了最尖端的聊天机器人开刀。他们弄了20条用OpenAI的Sora做的假视频去测试三家主流大模型:xAI的Grok、OpenAI自家的ChatGPT还有谷歌的Gemini。结果出来简直让人哭笑不得:Grok连95%的视频都认不出来;ChatGPT错了92.5%;就算表现最好的Gemini也还错了78%。 更搞笑的是ChatGPT和Sora其实都是一家子出的,但面对自家大哥搞出来的东西却一脸懵。这说明公司在做生成和鉴别的时候完全不在一个节奏上啊。 厂商为了防止乱用一般都会加水印或者C2PA这种元数据。可这次实验发现这些措施简直就是白搭。像Sora那个水印刚出来没多久网上就有了免费工具能把它去掉;就算水印留着,Grok和ChatGPT还是经常瞎判断;甚至Grok面对一段“巴基斯坦给伊朗送战斗机”的假视频时,不仅没看出来还引用了个根本不存在的“Sora新闻”来忽悠人。 至于那个看不见的C2PA数据也不靠谱。研究发现稍微保存处理一下视频就能让数据丢了;最要命的是ChatGPT面对一段带完整数据的视频竟然说“啥也没找到”,这说明它根本看不懂这些元数据。 这也不是第一次出这种事了。Newsguard之前也测试过“美国警察抓小孩”的假视频,ChatGPT和Gemini都信以为真还瞎编新闻来源。这些例子都说明现在的AI聊天机器人对这种视听形态的假消息根本没辙,还总是一副胸有成竹的样子胡说八道。 人工智能确实改变了很多东西,但它在内容安全这块的短板也太明显了。这次测试反映出大模型在面对逼真伪造视频时真的很吃力。这不仅仅是技术问题,更是平台责任、标准规范、用户教育还有监管部门协作的大事。 想要让生成式AI健康发展,必须得同步提升它在鉴别和溯源方面的能力。得建立一套立体的治理体系才能挡住这些风险。技术进步的脚步必须和治理能力的提升保持一致,这才是确保AI向善发展的关键啊!