昨晚深夜,我在John Keen的AI实验室看到了一个惊人的景象。Richard Sutton正在和John Carmack合作,他们用5亿美元打造的GPU集群正连续运转427天未重启。这种设备的神奇之处在于,它每天只需要5%的额外算力,就能给模型消化相当于人类三年产出的海量数据。我当时心想,这种方式简直就像用化石燃料去驱动电动车,完全违背了能源利用的逻辑。 Sutton把这种革命性的设计称为"去中心化神经网络"。在这个系统里,神经元不再像流水线上的工人那样只做固定动作,而是变成了一个个拥有独立目标的"自由探索者"。就像创业者一样,它们既要维持信息传递的主业,又能随时开拓新业务。这种设计让阿尔伯塔大学的系统具备了惊人的学习能力。经过连续100天的学习后,新任务的适应速度依然保持在初始水平的89%,这完美解决了困扰AI领域多年的"灾难性遗忘"问题。 2025年,强化学习之父Sutton在新加坡国立大学的演讲台上揭示了当前AI发展的三大困境。他提到,GPT-7想要训练完毕需要消耗全人类三年产生的文本数据;但参数规模每扩大10倍,性能提升却不到2%;最先进的大模型在连续学习72小时后,知识保留率仅剩17%。他当时打了个很贴切的比方:"我们正在用化石燃料的燃烧方式驱动电动车。" 三个月后,OpenAI突然暂停了GPT-6的训练计划,并收购了一家专注持续学习的初创公司。这个决策背后隐藏着行业转型的阵痛。Sutton在图灵奖晚宴上直言:"当我们在Scaling Law的道路上狂奔时,真正的智能可能正从后门溜走。" 到了2026年外滩大会,阿尔伯塔-07系统的演示再次震惊全场。它通过神经元活跃度动态调节机制,成功让模型同时掌握钢琴演奏和围棋对弈的技能。这种"学新不废旧"的能力彻底颠覆了传统神经网络的宿命。 约翰·卡马克(John Carmack)带领的团队发现了一个重要现象:当系统中5%的神经元被设置为"自由探索者"时,模型会自发产生类似生物神经突触的可塑性变化。这一发现让算力优化与学习效率的再平衡正在重塑研究范式。随着"经验学习速率曲线"首次超越Scaling Law的增长轨迹,我们或许正在见证智能进化史上最关键的范式转移。 在《苦涩的教训》这篇后续文章中,Sutton写道:"真正的突破不会来自对算力的顶礼膜拜,而在于教会机器如何像生命那样学习。"在他看来,真正的智能不在于算力狂欢,而在于如何教会机器持续进化。