最近,关于AI有一些令人震惊的消息,把我CPU都干烧了。斯坦福大学和中山大学这两天各发了一篇研究报告,一个让我感到兴奋,一个让我感到担忧。第一个消息说,AI现在有能力设计出自然界中根本不存在的新病毒,就像一个能创造生命的“神”。斯坦福的科学家们使用跟ChatGPT类似的原理,教会AI理解生命的语言。他们使用Evo2模型,只给AI几个字母,就能让它写出一整本病毒的生命说明书。结果,这些病毒在感染细菌方面,表现非常出色,甚至超过了自然界中的原型。 但随之而来的是第二个消息,却让我有些担忧。中山大学和阿里巴巴联合发布了一项研究,结果显示市面上18个主流AI编程模型中,有超过75%的任务会让你的代码越改越烂。它们虽然能写一行漂亮的代码,但给它们接手一个项目,持续迭代三个月的话,结果往往是把原本能跑的系统给你搞垮。这种感觉就像是把修理工变成了拆迁队。这个研究测试了GPT、豆包、Kimi等多个模型,发现它们在维护代码时表现很差。Claude算是表现稍好的一个。 斯坦福那边已经开始慌了,在3月18日紧急更新了模型使用条款,禁止用于设计有风险的生物序列。这感觉就像是你邻居家小孩突然说用乐高搭出了炸弹,然后他家长赶紧贴了个纸条警告别人禁止爆炸。 这两件事放到一起看,简直就是一场黑色喜剧。我们到底是在造神,还是在养一个拥有灭世能力的孩子呢?科学家们给AI赋予了强大的能力,希望它能解决一切问题和创造奇迹。但同时我们又把它当成一个需要24小时盯着防止闯祸的工具。这种认知分裂导致了一个尴尬局面:我们投入大量资源训练超级大脑来处理复杂任务时,它在做基本工程工作时可能跟拆家的哈士奇没什么区别。 中山大学那篇论文指出,大多数AI的训练目标是单次任务最优解。它们只关注眼前任务奖励和当前目标,并不考虑长远影响和历史遗留问题。这就好比它只关心今天骨头香不香,完全不顾及你把家啃没后睡哪里。 所以现在的问题不是AI会不会抢人饭碗,而是我们敢不敢把饭碗交给一个随时可能炸厨房的超级厨子。当玩具从代码变成可以自我复制的生命蓝图时,我们赌上的就是几次宕机和老板的怒火吗? 斯坦福给他们创造的“神”戴上了镣铐这很好但远远不够。真正需要戴上认知镣铐的可能是我们自己。我们应该停止那种救世主或终结者的幻想了。AI更像是一个能力无限但责任心约等于零的天才儿童。我们是它们的父母,但恐怖的是它们成长速度已经超过了我们教它危险认知的能力。