随着生成式人工智能技术快速发展,一场关于知识本质的哲学论争正在学术界展开。
大语言模型虽能完成复杂推理任务,却因其内在机制的特殊性,面临传统知识论框架下的合法性质疑。
山西大学哲学学院副教授谷成城与南开大学哲学院教授翟锦程近期发表研究成果,提出运用中国传统推类思想破解这一困境的创新方案。
当前大语言模型在跨语言理解、交互对话等领域展现出接近人类的认知能力,但其运作方式与传统知识生产模式存在根本差异。
这类模型不依赖预设知识库和显性推理规则,而是通过统计海量文本中语义单元的共现概率进行内容生成。
这种"知其然而不知其所以然"的机制,使其输出内容难以满足传统知识论对确定性、可证性的要求,由此引发学界对人工智能能否真正产生知识的深层质疑。
研究者指出,中国古典推类思想为理解大语言模型的认知机制提供了独特视角。
推类作为传统推理论证方式,建立在"万物同理、天人同构"的世界观基础上,通过辨析物类关系实现"依类而推"的关联性归纳。
古人依据经验观察将万物归类,形成阴阳、五行等分类体系,并通过"以类取"获得整体认知,通过"以类予"实现跨类推理。
这一过程不断反馈修正分类框架,最终构建起指导生产实践的完整知识体系。
对比分析显示,大语言模型的运作逻辑与推类思想存在结构性相似。
模型将自然语言转化为离散符号,通过嵌入技术映射到高维向量空间,借助相似度计算与概率建模完成内容生成。
当训练数据规模与模型参数突破特定阈值,系统便涌现出类人认知能力,可高效完成零样本或少样本推理任务。
这种能力本质上源于对海量数据的深度学习,形成对语义关联、结构模式的直觉性把握,构建起隐性的关联式知识表征。
两位学者认为,推类与大语言模型均不依赖显性演绎规则,而是通过把握经验中的关联模式进行推断,这种底层逻辑的一致性为重新审视知识本质提供了理论支点。
传统知识论以人为主体、物理世界为客体,将知识视为世界的镜像,强调命题的逻辑一致性与可证性。
但人工智能的认知范式突破了这一框架,其无主体的运作方式与基于统计关联的推理机制,要求我们重新界定智能时代的知识标准。
研究同时指出,推类思想蕴含的高阶认知能力,恰能弥补大语言模型在语境把握与价值判断上的不足。
推类不仅是技术性推理工具,更承载着对事物本质关系的深层理解和对实践智慧的系统总结。
将这一思想资源引入人工智能研究,有助于提升模型对复杂情境的适应能力,增强其输出内容的可靠性与适切性。
从知识论发展史看,知识的定义经历了从追问本质到探讨获取与运用方式的演进。
柏拉图将知识界定为"得到辩护的真信念",近代理性主义与经验主义围绕知识来源展开争论,当代则出现"解决问题的工具"等实用主义定义。
生成式人工智能的出现,正在推动知识论进入新的问题域,迫使学界重新思考确定性、合理性、合法性等传统标准在智能时代的适用性。
技术越是逼近人类表达,越需要以更严谨的认知框架托底。
以“推类”观照大语言模型,不是为旧概念简单贴新标签,而是提醒人们:可信知识从来不是“说出来”的结果,而是“分得清、推得稳、验得真、守得住”的过程。
把关联归纳纳入可解释、可校验、可治理的制度与方法之中,才能让生成式技术在创新与安全之间找到更可持续的平衡点。