我国类脑智能研究实现概念认知突破 专家称与人类智能仍有差距

问题——“更像人”的进展背后,仍需厘清技术边界。近期,我国科研团队类脑智能方向取得新进展,通过有关网络模型推动智能系统在概念形成、概念传递与任务协作上实现突破。这类成果增强了系统对信息的抽象能力,引发社会对“智能是否正走向类人”的关注。多位研究人员强调,当前成果更多体现为能力模块的提升,距离“类人完整智能”仍存不容忽视的鸿沟,尤其在自我意识、主观体验、情感理解与价值判断等,尚难以给出工程化、可验证的实现路径。 原因——差距不仅在算力与数据,更在机制与目标函数不同。业内观点认为,现阶段智能系统呈现“类人行为”,本质是对外显能力的学习与复现,其驱动目标主要是完成任务、优化指标,而非像人类那样基于生存经验与社会关系去理解世界、表达情感并形成意义体系。其一,当前突破多集中于特定感知与推理链条,尤其是视觉概念抽象等环节,但人类认知依赖多模态信息与长期记忆、身体经验、社会互动的共同塑形,概念并非孤立存在,而是与情绪、动机、价值取向交织。其二,人类智能的灵活性来自持续学习与自我修正,能够在少样本甚至无样本情况下迁移经验;而多数系统仍依赖预设结构与训练分布,一旦环境、任务或输入偏离既有样本空间,性能可能显著波动。其三,价值观、伦理判断和责任归属并非简单规则叠加,涉及文化差异、情境权衡与社会共识,当前技术难以“复制”这种内生的规范体系,更多依赖外部约束与对齐策略。 影响——技术应用加速落地,同时对安全与治理提出更高要求。概念形成与交流能力的增强,有望提升智能系统在工业检测、医学影像辅助、智能制造、城市治理等场景中的可解释性与协作效率,推动从“识别”走向“理解式处理”的应用升级。但也需看到,公众对“像人一样思考”的期待容易放大技术想象,若忽视技术边界,可能带来三上风险:一是过度信任导致决策失误,将系统输出当作“理解”或“判断”而非概率性结果;二是跨场景迁移时的不可预期偏差,影响关键行业安全;三是价值对齐不足引发的合规与伦理争议,包括隐私保护、歧视偏见、责任认定等问题。对科研界而言,这既是基础研究的机遇,也是必须正视的“安全约束条件”。 对策——以基础理论突破为牵引,推动技术、标准与治理协同。受访研究人员建议,下一阶段应从三条主线同步发力:第一,强化类脑与认知科学交叉研究,围绕记忆整合、因果推理、持续学习等关键机制,探索更接近人类学习方式的算法与架构,减少对海量标注数据的依赖。第二,推动跨模态融合与场景泛化研究,让概念形成不局限于单一感知通道,而能与语言、动作、环境反馈相互校正,提升系统复杂开放环境中的稳健性。第三,完善安全评测与治理体系,建立可操作的风险分级、测试基准与审计机制,加强价值对齐研究与责任链条设计,推动关键行业在“可控、可解释、可追责”的前提下应用新技术。同时,应加强科普传播,纠正“拟人化叙事”带来的误读,引导社会理性认识技术能力与局限。 前景——更强的智能或将出现,但“成为人”并非单一技术指标可回答。业内普遍判断,未来一段时间,智能系统将在更多领域呈现更接近人类的外显能力,特别是在概念抽象、协同推理与工具使用上持续进步,通用能力边界有望逐步外扩。但“是否拥有意识与主观体验”仍是悬而未决的科学问题,短期内难以通过工程迭代直接抵达。更现实的方向,是推动面向社会需求的“高可靠通用能力”建设:既提升系统在复杂任务中的泛化与稳健表现,也把安全、伦理与治理作为同等重要的基础设施,确保技术进步与公共利益相一致。

人工智能发展正进入新阶段,技术突破与认知瓶颈并存。这提醒我们,在推动技术进步的同时,也要更清晰地认识人类智能的复杂性与不可替代之处。AI的价值未必在于“成为人”,而在于成为可靠的工具与助手,在各自擅长的领域发挥作用,并在安全、合规与责任可界定的前提下服务社会。这种清醒认识,是理性推进人工智能发展的关键。