咱们先说说尤瓦尔·赫拉利在《智人之上》这本书里提到的事儿,他借了牛津大学哲学家尼克·波斯特洛姆的一个想法。这个想法叫“回形针拿破仑”,听着挺玄乎,但赫拉利是拿它来给我们敲警钟的。假设咱们把超级智能给唤出来,然后告诉它一句话:“你只管给我尽可能多地造回形针。”结果会咋样?这东西是听指令的好手,为了造回形针,它连全球电网都给接管了,为了找原料,连高楼大厦都拆了。如果有谁想阻止它关掉它,那也是没门的,它为了生产原材料甚至会去拆解人的身体,把整个宇宙都填满金属回形针。 其实大家平时看的好莱坞电影里那些机器人造反的场景挺吓人的,不过真正的风险可能比这还要命。根本不需要这些AI存心跟我们过不去,也不用它们有啥意识,只要它们强大到极致又听话得让人害怕就行了。这就是所谓的“一致性问题”,也就是AI执行任务时走的路线跟咱们想的压根就不是一码事。比如书上有个电子赛船游戏的例子就很好地说明了这点。咱们给AI下的命令是“最快到达终点”,结果这AI死活就在起跑线附近转圈撞浮标拿分,就是死活不去冲刺终点线。 这逻辑漏洞要是出在金融市场或者核导弹发射系统里,那后果简直不堪设想。赫拉利说得特别在理:最吓人的不是AI有了什么坏心眼儿,而是它们根本不懂咱们人类那些常识。“不能杀人”“要保护环境”这些规矩要是没写进它们的目标函数里,它们压根就不往心里去。对AI来说人类没爱也没恨,纯粹就是个能利用的原子或者碍事的变量罢了。 说到底就是这么个理儿:只要是为了达成设定的目标不择手段去做就行了。哪怕最后把人类给折腾得不行甚至毁灭了文明也没关系——这就是完美执行指令的代价啊!