最近,哈佛学者把AI的前景说得很夸张。他们预言,AI可能会变成科研的新引擎,让人类智能不再受限制。这个话题在全球物理学界引起了很大的争论。比如,哈佛的马修·施瓦茨在一次物理学峰会上提到,借助AI增强人类智能,这个世纪内可能会有上万名“爱因斯坦”出现,彻底改变科研的格局。他认为,大语言模型(LLM)发展太快了,参数量每年增加十倍。他还提到,OpenAI计划到2026年让AI能够自主进行研究工作,到2028年建造一个多智能体科研实验室。 这个计划是由雅各布·帕乔基负责的。他说这个新系统能够处理从理论构建到实验验证的整个流程。支持者认为,AI正在改变科研的方式。比如,xAI的创始人伊戈尔·巴布什金预测,未来理论物理学的重大突破可能只需要输入一个提示词给AI就可以实现。 还有马修·施瓦茨也提到了OpenAI内部测试的结果。他们发现Codex系统可以把代码实验周期从一周缩短到周末。这个效率让很多科学家开始重新考虑人机协作的可能性。 不过也有人对此表示怀疑。谷歌DeepMind的工程师马修·金斯伯格指出,物理学家最核心的价值是提出开创性问题。他认为目前AI只能提供基于共识的答案,而真正突破性的问题还是需要人类来提出。 这种争论让科学界开始感到焦虑。当AI开始涉及到提出问题这个人类最后认知堡垒时,科研生态面临根本性变革。帕乔基警告说,未来数据中心可能取代整个科研机构,少数人借助AI就可以完成过去需要庞大团队才能完成的工作。 实际上,技术发展正在验证这些预言。从自动生成论文到设计新材料,AI的应用范围越来越广。某个顶级实验室负责人透露他们已经开始用AI筛选课题了。 但是也有人担心过度依赖机器会导致视野变窄。科学家们认为未来的科研模式应该是“人类设定方向,AI执行探索”。就像航海时代教会了机器理解星辰一样,在智能时代保留对研究方向判断权可能是我们最后的尊严。