NeurIPS 2025与会学者警示“扩展壁垒”:大模型性能跃升难掩通用智能远虑

一、发展瓶颈显现 近日举行的NeurIPS年会引发全球AI研究界广泛讨论。与会专家普遍认为,依靠增加算力和扩大数据规模的现有技术路线,已难以实现实质性突破。此现象被称为"扩展壁垒"。 具体表现为:高质量训练数据逐渐耗尽,而性能提升与能耗增长的性价比持续降低;同时,现有模型在逻辑推理、因果判断等关键能力上仍有明显缺陷,难以满足医疗、科研等高可靠性领域的需求。 二、架构局限是主因 专家指出,主流大语言模型采用的变换器架构存在根本局限。该架构最初设计用于统计模式匹配,而非通用智能。虽然能生成流畅文本,但缺乏真正的理解和推理能力。 举例来说,当被问及物体坠落的物理变化时,模型可以组织出合理描述,但并未真正理解物理规律。这种局限不是工程优化能解决的,而是架构本身的先天不足。 三、行业预期需调整 这一发现对AI产业影响深远。近年来"通用AI即将实现"的说法推动了大量投资,但现实进展明显滞后。研究人员警告,过度商业化可能带来表面繁荣但实质停滞的风险。 四、新方向受关注 面对挑战,研究者正探索替代方案: 1. 神经符号架构:结合深度学习和符号逻辑的优势 2. 世界模型:建立对物理因果关系的内部表征 这些方向旨在提升AI在关键应用中的可靠性,而非仅改善对话流畅度。 五、转型势在必行 AI研究正处于关键转折点。现有路径的边际效益递减,需要重新思考基础架构和训练方法。专家认为,真正的突破需要从理论认知到技术实现的系统性创新。

AI发展来到分水岭。当商业热潮退去,基础研究的重要性再次凸显。实现真正的智能突破不仅需要计算资源,更需要理论创新。正如艾伦·图灵所说:"我们只能看到很短的未来,但足以发现那里有很多工作要做。"在追求智能的道路上,人类才刚刚起步。