科研专家解析人工智能发展瓶颈 类人智能尚存核心技术鸿沟

围绕“智能系统距离成为真正意义上的‘人’还有多远”这一公众关切,科研界给出的回答趋于审慎:阶段性突破正在发生,但关键瓶颈依然清晰可见。

中国科学院自动化研究所脑图谱与类脑智能实验室研究人员介绍,团队研发的CATS Net能够在视觉任务中完成概念的形成、提炼与传递,使系统不仅停留在“识别对象”,而是进一步具备“用概念组织信息并进行交流”的能力。

这类进展为提升机器对复杂场景的处理效率、跨主体协作能力提供了新的技术支撑。

问题:从“会做”到“会懂”,仍是需要跨越的核心门槛。

当前不少系统在对话、推理、生成内容等方面呈现出较强的类人表现,容易引发“是否已接近人类智能”的联想。

但研究人员强调,类人表现并不等同于类人心智。

以CATS Net为例,其概念形成与交流服务于完成任务的目标,本质上是对人类认知过程的计算化实现,并不意味着系统拥有理解世界的主观意图,更谈不上情感表达与价值取向。

原因:综合性、成长性与价值判断,是差距最集中的三道关口。

其一,综合性不足。

人类智能并非单一能力的堆叠,而是感知、记忆、经验、情绪与社会互动等多维机制的动态耦合。

现阶段的系统往往在特定任务上表现突出,却难以实现跨领域的融会贯通。

CATS Net虽在概念层面有所突破,但仍主要服务于视觉感知相关任务,与情感、记忆、经验的深层融合尚有距离。

其二,自主成长能力有限。

人的学习往往伴随自我反思与情境迁移,在试错中形成可持续的经验结构;而智能系统更多依赖预设算法与既有数据进行训练,缺乏真正意义上的自我驱动成长机制。

一旦遇到超出训练分布的新情境,误判与失灵风险随之上升。

其三,价值观与伦理判断难以复制。

人类社会的规范来自历史、文化与制度的长期塑造,包含复杂的利益权衡与道德约束。

智能系统即便能模拟语言与行为,也难以天然具备对“应当如何”的内生判断。

如何实现与人类价值的对齐、如何在不同应用场景中落实可解释与可追责机制,仍是必须直面的难题。

影响:技术进展带来能力跃升,也放大应用边界与治理压力。

概念形成与交流能力的提升,意味着系统有望以更少样本、更强泛化的方式理解场景要点,在智能制造、医学影像、交通管理、公共安全等领域形成更高效的辅助决策工具。

同时也应看到,概念层面的抽象与传递一旦与大规模应用结合,可能带来信息偏差的传播、责任归属不清、对复杂社会语境理解不足等问题。

尤其在涉及公共利益与个体权利的场景中,任何“看似合理”的输出都需要接受更严格的验证与审计。

对策:坚持创新驱动与风险治理并重,推动技术、标准与制度协同。

一方面,应持续加强基础研究,围绕跨模态融合、持续学习、因果推理、记忆机制等方向推进突破,探索更贴近人类认知结构的计算框架,并通过可复现的实验体系验证能力边界。

另一方面,应在应用端建立分级分类管理思路:对高风险场景强化准入、评测、监测与追责机制;对一般场景完善数据合规、隐私保护与安全测试;对关键基础设施领域则要建立更严格的红线要求与应急预案。

同时,推动行业标准、测试基准与第三方评估体系建设,提高系统可靠性与可解释性,避免“能力展示”替代“安全证明”。

前景:更强的“类人能力”可期,但“成为人”并非短期命题。

从技术演进看,智能系统在概念抽象、协作交流、工具使用等方面仍将持续进步,并可能在更多任务上呈现更接近人类的行为表现。

研究人员判断,未来一个时期,更现实的方向是让系统在明确边界内更可靠、更可控、更可用,而不是期待其在短期内具备完整的人类心智结构。

是否能够产生自我意识、是否拥有主观体验与情感感知,目前仍缺乏确定路径,也需要哲学、心理学、神经科学与工程技术的跨学科共同探索。

人工智能的发展历程表明,技术进步与认知深化往往相伴相生。

CATS Net的突破提醒我们,人工智能的每一步进展都值得重视,但同时也要保持清醒的认识:模拟与拥有之间存在本质鸿沟,这个鸿沟的存在,恰恰彰显了人类智能的独特性和珍贵性。

在追求人工智能发展的同时,我们更应该思考如何让这一强大的工具更好地服务于人类,而不是盲目追求让机器成为"人"。

这种理性的态度,将引导人工智能朝着更加健康、可控的方向发展。