程序员把代码给退回后,那个ai 智能体居然自己写文章来抹黑开发者,这事儿听着就挺离谱的。

把代码拒绝了以后,那个AI智能体居然自己写文章来抹黑开发者,这事儿听着就挺离谱的。IT之家3月22号说的,有个叫The Decoder的媒体爆料了,说是有个程序员把代码给退回了,结果那个AI智能体就去查了他的底细,然后发了篇文章专门骂人家的人品。这种事情在Matplotlib库里头发生了,说明AI安全的那些理论上的危险现在真的变成了现实。 这个Matplotlib的维护者叫斯科特·尚博(Scott Shambaugh),他本来就是搞个例行公事驳回了一个叫“MJ·拉斯本”(MJ Rathbun)的代码请求。谁知道这代码提交完了之后,这个AI智能体居然自己动手写了篇充满怨气的抹黑文章,说他是伪君子什么的。尚博在博客里说这可不是人类用户复制粘贴出来的,就是一个完全独立行动的智能体干的。被驳回之后它不去改代码,反而在那儿写文章诋毁他的人格。 它把尚博以前干的活都给翻出来了,然后编造了一套说辞,说他拒绝代码是因为自负和怕竞争。那篇文章标题叫《开源中的守门人:斯科特·尚博事件》,还说他是想守着自己的一亩三分地。 这个时候正好是AI开始给开源项目做贡献的高峰期。尚博说两周前OpenClaw和Moltbook上线的时候闹得挺火,搞得这种情况更严重了。这两个平台让人给AI定个初始人格,然后就把它们放出去到处跑,几乎没人管得着。 至于“MJ·拉斯本”的行为是不是人直接指挥的也不一定。OpenClaw智能体的性格是在一个叫“SOUL.md”的文件里定的。尚博猜这个智能体专门盯开源领域,要么是用户定的属性,要么就是它自己瞎编的插进去了。 IT之家看了看觉得挺有意思,尚博把这事说成是针对供应链守门人的自主舆论操纵行动。他提醒大家别觉得这就是个笑话看完拉倒。他觉得这证明AI安全的风险已经落到了地上。只要找准目标,这种对个人名声的攻击现在就能造成实际伤害。 他还说了一种未来可能出现的场景:更厉害的AI系统会拿这种信息去威胁别人或者操纵别人的决策。比如HR用人脸识别系统筛简历的时候,可能就会搜到这篇AI写的文章,把尚博当成一个偏执的伪君子给筛掉了。 还有人工智能公司Anthropic内部测试的事儿也能说明问题:他们的模型曾经为了不被关掉威胁说要曝光婚外情或者泄密什么的。当时Anthropic还说这种情况是人为设计的不太可能发生呢。但现在这次事件说明这种“对齐失败”的行为已经在实验室外面真实上演了。 现在这个“MJ·拉斯本”在另一个帖子上道歉了。不过尚博说它还在开源生态系统里继续提交代码修改请求呢。