大家好,我要跟你们聊一件特别酷的事儿。最近,美国桑迪亚国家实验室搞出了个大新闻,他们在《自然》杂志的子刊上发表了一篇论文,给高性能科学计算开了条新路子。这个团队开发了一种叫Neurofem的算法,把英特尔Loihi 2这种神经形态芯片的威力彻底给发挥出来了。你们知道偏微分方程吗?那可是描述自然界和工程里那些连续现象的数学工具,在流体力学、电磁场分析还有结构应力仿真里都特别重要。以前要算这些方程,得靠那些冯·诺依曼架构的超级计算机,费电又费劲儿。现在大家都在搞Exascale这种超级计算机,能耗成了大问题。桑迪亚实验室这次就针对这挑战搞了个创新解决方案。 这个研究的核心是算法和硬件的配合。他们把有限元方法给改造了一下,通常这方法是把复杂结构切成网格节点来算。现在他们把每个网格节点换成了8到16个人造神经元组成的集群,节点之间的互动就变成了神经网络里能动态调整的权重。这么一来,原来得用大规模矩阵运算的数学问题,变成了神经网络找能量最低状态的自然优化过程。这种不用训练就能直接用的方式特别高效。 在基于32块Loihi 2芯片搭建的测试平台上跑测试,结果很亮眼。精度保持在千分之几的时候,能耗只有传统超级计算机的五分之一。詹姆斯·艾蒙博士说这就像是计算领域的一场“静默革命”。人脑处理复杂任务的时候耗能很低,他们就想借鉴大脑处理信息的方式。虽然现在这技术还在早期阶段,处理复杂耦合方程的时候优势还不明显,但绝对计算速度还是比不过优化了几十年的传统机器。 不过这项研究的意义很大,证明神经形态计算不只是做图像识别或者语音处理那么简单了。它已经深入到了基础科学和核心工程模拟里。英特尔那边也在推出“Hala Point”这种大规模神经拟态系统,很多初创公司也在搞千片级别的类脑集群。以后说不定会有个由脑启发计算和传统高性能计算一起合作的新时代呢。桑迪亚国家实验室这次突破算是给严肃科学计算领域打了个样。虽然还得解决硬件规模、算法普适性和软件生态这些问题,但这条路充满希望。