虽说那些科技公司眼里只有赚快钱,根本不操心 AI 以后会搞出什么大新闻,但“AI 教父”杰弗里·辛顿还是忍不住要给大伙儿泼盆冷水。据《财富》杂志3月22号那天说的情况来看,大部分IT行业的大拿都没想过AI最终要把人类引向何方。这位诺贝尔奖得主觉得,现在的行业风气确实不太好,推动大家伙儿搞研究的不是长久的影响力,而是眼前能赚的钱。 有一回他在接受采访时直言不讳:“对那些当老板的人来讲,让他们掏钱搞科研的动力就是短期利润。研究人员呢,他们只盯着手里的活计,哪有功夫去操心那研究最后到底会带来什么后果。”哪怕是设置目标也不搞虚的,“我们通常不会一开始就嚷嚷着要让人类未来变成什么样,而是围着具体问题转。”就好比怎么让计算机学会认图,或者把逼真的视频做出来,“这才是真正驱使我们干活的劲儿。” 有意思的是,这位老教授很早就开始敲警钟了。他曾经预言,要是哪天真搞出了超级智能,那玩意儿把咱们人类灭绝的几率没准能达到10%到20%。不过就在2023年,也就是把自己手里的 DNNresearch 卖给谷歌整整十年后,这位老爷子选择离开了谷歌。他说这是为了给自己松绑,好让自己能更自由地吐槽AI的各种风险。他还特意点出了一个很让人头痛的事实:这技术太容易被坏人盯上了。 关于这事儿他分了两类来看:一类是那些坏人故意拿AI做坏事,比如现在已经能看到的假视频和网络攻击,甚至还可能发展成病毒;还有一类就是AI本身突然变成坏人,这两种情况可完全不是一码事。至于怎么应对这些麻烦事儿?辛顿觉得难点就在于每一类问题都得单独想招儿。比如对付假视频这类深度伪造的问题,可以试试用“溯源认证”的方法给图像和视频加上标签,“就像印刷术刚出来的时候出版物开始写作者名字一样。”但他也承认这种办法有个明显的短板,“或许能把这事儿解决了,但解决不了别的。” 对于那些AI自己就变坏的风险该怎么防?辛顿琢磨的是得重新定义一下人和AI的关系。一旦AI变成了“超级智能”,不仅本事比人大多了,“可能还会有想要生存和控制我们的念头。”到了那时候“咱们能控制它”这种说法就完全站不住脚了。 最后他给大家支了个招儿:应该给AI设计点“母性本能”的机制,“让它产生同情人类的感情而不是想要控制咱们的欲望。”还拿母婴关系打比方说:“目前为止唯一一个更聪明的生物被弱者影响的例子,就是婴儿影响母亲。”他觉得这或许就是咱们面对超级智能 AI 时可以拿来参考的模型——“让它们像母亲,咱们像婴儿。”