问题——“会说”的工具为何难以直接取信于人 近期,多款生成式人工智能应用走进日常生活:从资料汇总、文稿起草到知识问答,几秒即可给出结构完整的回应。然而,不少使用场景中,用户习惯在得到答案后再自行检索核对;涉及症状判断、药物选择等事项时,更倾向于查看权威机构发布信息或参考真实个案经验。公众“多走一步”的背后,折射出对信息真实性与风险后果的审慎态度。 原因——可信度焦虑来自“来源不明”“不确定不提示”“责任难界定” 一是内容生成具备“高拟真”特征,容易造成“看似正确”的错觉。生成式人工智能能够用流畅语言组织论证、给出数字和结论,但其回答并不天然等同于事实核验结果,部分情况下可能出现张冠李戴、时间过期、概念混用等问题。由于表达方式高度自洽,普通用户仅凭行文难以分辨真伪,从而形成“越像真的越不敢全信”的心理。 二是网络信息环境复杂,公众对“被误导”的记忆成本较高。长期以来,互联网上存在夸大宣传、伪科普、擦边广告等现象,一些人曾在健康、消费等领域遭遇误导,形成对陌生信息源的天然警惕。当生成式人工智能将海量内容重新组织呈现,若缺乏清晰的依据展示,用户往往会将其归入“需要再确认”的范畴。 三是答案缺乏直观的来源链条,影响用户自主判断。传统检索虽耗时,但用户可看到发布主体、发布时间、引用出处与多方观点,进而自行评估可靠性。相较之下,若生成式人工智能仅给出结论而不呈现引用来源、证据强度与适用边界,用户难以完成“可验证”的判断闭环,因而更愿意通过二次检索获得踏实感。 四是高风险场景更强调后果承担,健康领域尤为突出。身体不适、用药选择等问题一旦判断失误,影响直接落在个人身上。公众更倾向于求助医生、药师及权威指南,或参考他人真实经历,但不会把工具性建议视作“最终处方”。在责任边界尚未清晰、个体差异难以被充分纳入的情况下,“谨慎”成为理性选择。 影响——“二次检索”将成常态,也倒逼行业走向规范 业内认为,公众对生成式人工智能的使用正在从“图方便”转向“讲证据”。一上,二次核验提高了信息消费的理性程度,有助于降低误用风险;另一方面,若大量用户对答案缺乏信任,工具的社会价值将受到限制,特别是在教育、医疗、政务服务等对准确性要求更高的领域,可信机制不足可能带来新的信息不对称与安全隐患。 对策——提升可信度需“技术改进+制度约束+权威供给+用户素养”协同发力 首先,推动“可追溯”成为产品底线能力。鼓励在回答中提供可核验的引用来源、证据链接与更新时间提示,对不确定内容进行显著标注,避免将推测包装为确定结论;对专业问题给出适用前提与风险提示,减少误导性表达。 其次,健全标准规范与责任体系。围绕内容标识、数据来源合规、误导纠错、投诉处置等环节完善制度安排,推动形成“能追责、可纠错、可改进”的闭环机制;在医疗健康等领域,应明确工具定位与使用边界,强化与专业服务体系的衔接。 再次,增强权威信息供给与公共服务接口。鼓励权威机构以公众易懂方式持续发布指南和辟谣信息,并通过开放接口、权威语料库等方式提高高质量知识的可用性,让“可信内容”更易被调用与呈现。 同时,提升公众信息素养与风险意识。引导用户对关键信息进行交叉验证,特别是涉及人身健康、财产安全、法律责任等事项,坚持以正规渠道与专业意见为准,把生成式人工智能定位为辅助工具而非最终裁判。 前景——在“可验证”和“可负责”框架下,信任有望逐步建立 多位观察人士指出,生成式人工智能将长期深度嵌入信息获取与内容生产,但其社会接受度取决于两条主线:一是答案是否更可验证,二是风险是否更可管理。随着来源标注、质量评测、纠错机制和行业监管逐步完善,公众对其信任或将从“依赖表达”转向“依赖证据”,从“相信工具”转向“相信流程”。
在效率与安全的权衡中,公众的审慎并非保守,而是对风险负责。技术的价值不在于替代思考,而在于帮助人们更快、更稳地接近可靠结论。当系统能够明确标注“不确定”,当用户也能建立必要的核验习惯,人机之间的信任才可能在可验证、可负责的机制中逐步形成。这既考验技术创新者,也考验每一位数字公民。