以色列军队竟把3600人误判成了打击目标

最近我看到个新闻挺有意思的,AI在战场上好像经常出岔子,美国那边的媒体就爆料说以色列军队竟然把3600人误判成了打击目标。美军这次在打击伊朗的时候,第一次提到了用AI来帮忙做决策。其实在加沙地带那边,AI系统的错误率被证实有10%呢。彭博社3月5日发的文章说,那个能帮你写营销邮件或者找食谱的聊天机器人Claude,居然也被用到打击伊朗去了。美国中央司令部在这次行动里,用的就是Anthropic公司的Claude AI,用来评估情报、识别目标还有模拟战场情况。 你知道吗,AI早就被用来打仗了,比如分析卫星图片、检测网络威胁还有导弹防御这些工作。不过最近啊,聊天机器人也开始直接上战场了。特别让人担心的是,这些操作都是在没有监管的情况下进行的,而且技术本身也经常出错。这种不靠谱的系统其实已经不是第一次被拿来打仗用了。“薰衣草”(Lavender)就是个典型例子,它是个AI驱动的数据库,专门帮以色列识别加沙地带哈马斯的军事目标。它不是那种大语言模型,而是通过分析大量监控数据给每个人打分的。 一旦分数超过了某个线,“薰衣草”就会把人标记成军事目标。问题来了,一份调查报告显示这个系统的错误率高达10%。牛津大学的塔德奥教授算了一下,大概有3600人被错误锁定了。伦敦玛丽女王大学的施瓦茨教授也表示担心,“这些系统漏洞多,还特别不可靠……用在打仗这种复杂敏感的事情上太危险了。” 她说现在的问题是速度快了、规模大了,人类审查却少了。最近关于Anthropic公司和五角大楼吵架的讨论——关于监视美国人或者搞全自动武器合不合理——其实忽略了一个更大的问题:用AI打仗完全没透明度。 对于这种容易出错、又新颖还没怎么测试过的系统,透明度太重要了。塔德奥也说:“咱们作为一个社会还没决定好,到底要不要让机器来决定一个人能不能被杀。”