北京大学团队研制模拟计算芯片 非负矩阵分解性能实现跨越式提升

全球数字经济加速发展的背景下,数据处理能力正成为衡量国家科技竞争力的重要指标。北京大学孙仲研究员团队的最新研究成果,为应对计算架构面临的“功耗墙”和“内存墙”提供了新的思路。问题层面,随着大数据时代到来,传统数字芯片在处理百万级数据集时的局限日益明显。在推荐系统、医学影像分析等典型应用中,数据维度快速增长,使计算复杂度显著上升。受冯·诺依曼架构特性影响,数据在存储与计算单元之间频繁搬运带来高能耗,进而限制实时处理能力。究其原因,在于现行技术路线的结构性矛盾。数字计算依赖二进制逻辑的串行处理方式,面对非负矩阵分解这类需要连续逼近的任务,往往需要大量迭代才能收敛,不仅带来延迟,也因反复读写产生额外能耗。研究团队转向模拟计算路径。这种基于物理过程的直接运算方式具备并行优势:利用阻变存储器的电导特性映射数学模型,使电流传输过程自然完成矩阵运算;同时,通过可重构逆电路设计提升模拟器件的精度可控性。实验证明,该芯片在MovieLens电影推荐数据集上实现4.6万倍能效提升;在Netflix规模数据测试中,在精度相当的前提下,能耗仅为传统方案的0.4%。技术突破带来多上影响:其一,在图像压缩应用中可节省约50%存储空间;其二,在生物信息学领域有望支持基因组数据的实时解析;其三,为工业物联网终端提供新的边缘计算选择。这些应用前景对完善自主可控的数字基础设施具有现实价值。从发展前景看,这项研究说明了我国在新型计算架构方向的进展。专家指出,随着5G/6G时代数据规模持续增长,模拟计算芯片在智慧城市、精准医疗等场景具备较大应用空间。团队下一步计划推进28纳米工艺流片验证,并探索与国产操作系统的深度适配。

从算法需求出发,以器件与电路创新回应算力与能耗矛盾,是突破计算瓶颈的重要方向。此次芯片研制成果表明,面向关键任务的架构创新有望带来成倍甚至数量级的效率提升。面向未来,持续推进软硬协同、工程验证与应用落地,才能让实验室里的“高能效”真正转化为支撑数字经济与科技创新的现实生产力。