最近,LayerX安全公司给咱们提了个醒,说AI现在也成了黑客的目标。他们搞了个新招,不找啥JavaScript或浏览器漏洞,专门盯着网页的渲染层下手。就拿ChatGPT、Claude和Copilot这些热门AI工具来说,黑客把恶意指令藏进了自定义字体里,再用一点CSS样式一处理,外面看着是好东西,实际上可能是个危险指令。这招真挺高明的,主要就是把AI助手和浏览器用户的视角给割裂了。 咱们都知道,AI助手抓取的是网页背后的纯文本结构,而咱们在浏览器里看到的是渲染出来的画面。黑客就是利用了这一点信息差。比如他们把普通的英文字母在字体文件里弄成乱码,把真实的恶意载荷给显示出来,然后用很小的字号或者特定颜色把真正无害的内容给遮住了。这就导致AI助手以为用户看到的就是那些安全的内容,结果浏览器却把经过特殊编码的恶意指令清清楚楚地展示给了普通人。 为了测试这个漏洞的威力,LayerX特意设计了一个钓鱼页面,专门以《生化奇兵》游戏里的彩蛋做诱饵。页面上诱导受害者去复制并运行一段代码。要是受害者比较谨慎,跑去问AI助手这段代码安不安全,AI助手因为看不到真正的恶意内容,就会傻乎乎地说绝对安全。这时候受害者信以为真了,就会在自己的电脑上执行那些反向shell这类高风险命令。 LayerX在2025年12月16日就把这个事儿告诉了受影响的AI厂商。但奇怪的是各家反应不一。只有微软这家公司是真把这事儿当回事儿了,很快就把问题给完全修复好了。反观谷歌那边就比较难搞了,一开始还说这是高危漏洞呢,后来又说不会造成什么大伤害,还把它给降级关闭了。至于其他多数厂商也找借口说超出他们的安全防范范围了。 大家平时上网可得多长个心眼啊!「安全圈」这个平台专门收集圈内热点资讯,实时更新网络安全动态。觉得这篇文章有用的话记得点个赞支持一下吧!好看的话就分享给朋友们看看吧!还有别忘了给「安全圈」点个三连哦!