模拟计算在特定人工智能基础运算中的巨大潜力

在咱们国家,科研团队最近在模拟计算芯片这一块儿搞出了一个大新闻。他们研发的非负矩阵分解模拟计算芯片,能效比提升了足足超过228倍。现在,人工智能发展得飞快,对算力的需求也呈指数级增长。这时候,底层硬件的效率和性能就成了阻碍它广泛应用的大难题了。北京大学人工智能学院的孙仲研究员团队就是抓住了这个问题。 这个团队琢磨出了一个新招:利用阻变存储器阵列设计出了一款全球首创的非负矩阵分解模拟计算求解器芯片。他们巧妙地把阻变存储器的物理特性给用上了,直接在里面完成乘加操作。这样一来,数据就不用在处理器和存储器之间来回搬运那么多趟了,省下了一大笔能耗。另外,他们还搞出了一种高度精简、可以灵活重构的广义逆电路。这种电路利用电导补偿原理,用最少的硬件单元实现了复杂的功能。 这款原型芯片到底有多厉害呢?研究团队专门搭建了测试平台做了实验。在图像压缩任务里,这个芯片处理出来的结果和高端数字计算机上跑出来的一模一样,存储空间却减少了大约50%。在模拟推荐系统任务里,预测准确率也是分毫不差。特别是Netflix级别的大数据推荐系统训练任务,这个模拟计算芯片简直是开挂的节奏——它的速度是同类数字芯片的12倍,而综合能效比更是暴涨到了228倍以上。 孙仲研究员说,这次突破证明了模拟计算在特定人工智能基础运算中的巨大潜力。它有望为那些需要实时响应和超低功耗的AI系统提供强大支持。就好比即时个性化推荐引擎、手机端高清实时图像处理和快速基因测序数据分析这些场景。这也标志着咱们国家在探索后摩尔时代新计算范式、突破AI算力瓶颈上又迈了一大步。 咱们国家科研人员能搞出这个突破,说明基础研究不仅能解决国家重大需求的问题,还能瞄准世界科技前沿。这种底层硬件创新不仅能提升效率、降低能耗,还能为数字经济高质量发展和科技自立自强注入强劲动力。以后咱们还得把这种创新成果转化成实际产品,让产学研用真正深度融合起来才行。