就在1月22日,北京大学人工智能学院的孙仲研究员给科技日报透露了一个好消息:他们团队通过RRAM这种材料,搞出了一块能把非负矩阵分解算得飞快的模拟芯片。非负矩阵分解可是个强大的“数据降维”工具,在图像处理、生物信息学这些地方用得很广,能从海量的数据里揪出潜在的模式和特征。孙仲他们看中了这门技术,专门设计了一种新的模拟计算芯片,解决了传统数字芯片在处理大尺寸数据集时速度慢、耗电多的老毛病。 这次他们把计算速度提了大约12倍,能耗效率更是直接提升了228倍以上,相关论文已经登上了《自然·通讯》。面对如今动辄几百万的数据量,传统硬件的计算复杂度和内存瓶颈实在让人头疼。相比之下,孙仲团队的模拟计算方式直接靠物理定律并行运算,天生就更省电、延迟更低。这次他们用上了RRAM存储器,并设计了一种可重构的紧凑型电路。利用电导补偿的原理,只用了最少的单元就实现了相同的功能,尤其是对最核心的计算步骤进行了优化。这不仅节省了芯片面积,还让它在能耗表现上有了很大提升。 为了验证这块芯片到底好不好用,研究人员搭了个测试平台来跑测试。在处理图像压缩任务时,这块芯片输出的图片精度和全精度数字电脑没什么两样,但存储空间却节省了一半;在用MovieLens 100k数据集做推荐系统训练时,它比主流数字硬件快了212倍、省电了4.6万倍;而在用Netflix那种级别的海量数据做同样任务时,速度提了12倍、能效比更是翻了228倍以上。孙仲说,这项工作给这类约束优化问题的实时求解开了条新路,显示了模拟计算在处理现实复杂数据上的巨大潜力。未来它有望给实时推荐系统、高清图像处理还有基因数据分析这些场景带来技术革新,把人工智能应用推向更高效、更省电的方向发展。