近日,浙江省立同德医院接诊一起因AI问诊引发的严重用药事故。患者吴先生因口周疱疹自行上网使用AI搜索治疗建议,购买伐昔洛韦口服药物。然而,AI仅提供了"每次服用粒数"的笼统指导,未明确药品规格、剂量单位等关键信息。吴先生据此服用8粒药物,实际剂量超过医学标准3倍。加之同时服用消炎止痛药,两种药物在超剂量状态下相互作用,最终导致患者血肌酐升高至正常值10倍,确诊为急性药物性肾损伤,出现急性肾小管坏死、过敏性间质性肾炎等严重并发症。 该事件并非孤立现象,而是反映了当前医疗健康领域一个突出矛盾。近年来,人工智能技术在医疗应用中快速扩展,从健康管理、用药提醒到辅助影像诊断、疾病风险预测,AI已成为医疗体系的重要补充。然而,这种广泛应用也带来了新的风险隐患。当普通患者绕过专业医疗体系,直接依赖AI生成的"治疗方案"进行自我诊疗时,潜在危害随之而来。 问题的根源在于AI信息输出的"去语境化"特征。医学诊疗本质上是高度个体化的过程,需要综合考虑患者的年龄、性别、肝肾功能、既往病史、合并用药等多维度因素。而当前多数AI问诊系统在提供建议时,往往忽视这些关键变量,仅给出通用性、表面化的指导。在吴先生的案例中,AI未能评估其肝肾功能状况,未提示药品规格与剂量单位的区别,未警示多药合用的风险,这些缺陷直接导致了悲剧发生。 同时,患者端的健康素养不足也是重要因素。调查显示,部分患者将AI问诊系统误认为"电子医生",把AI的"建议"等同于医生的"诊断",对AI的能力边界认识不清。这种认知偏差使患者过度信任AI输出,降低了对信息的批判性审视。在医学知识储备有限的情况下,患者难以识别AI建议中的不合理之处,最终成为技术应用不当的受害者。 面对这一挑战,简单的"因噎废食"显然不可取。AI技术在医疗领域的应用前景广阔,关键在于建立科学的管理框架。首先,监管部门应加快推出AI健康咨询的行业标准与规范,明确AI信息输出的准确性要求、风险提示的强制内容、法律责任边界等核心要素。这些标准应具有强制约束力,确保所有进入市场的AI医疗产品都符合基本安全要求。 其次,AI平台自身需建立严格的内部审核机制。特别是对用药、诊断等直接关乎患者安全的问题,应设置多重确认与警示程序。平台应在用户获取建议前,强制性地提示AI的功能限制、不能替代医生诊断等重要信息,并在必要时引导用户连接线下医疗资源,形成"线上咨询—线下诊疗"的完整服务闭环。 第三,探索"AI建议+人工复核"的混合模式具有现实意义。在涉及用药、诊断等高风险环节,引入医学专业人士的人工审核,可以有效弥补AI的不足,确保输出信息的准确性和安全性。这种模式虽然增加了成本,但从保护患者生命健康的角度看,这种投入是必要的。 此外,提升全社会的健康素养和信息辨别能力也是长期课题。患者需要认识到,AI问诊只是医疗资源的补充手段,在诊断、处方等关键环节,专业医生的判断仍然不可替代。对于症状明显、涉及用药的健康问题,应主动寻求正规医疗机构的专业指导,而非完全依赖网络工具。学校、医疗机构、媒体等社会各界应加强健康教育,帮助公众建立正确的医疗观念。
医疗数字化浪潮中,"便捷"与"安全"需要更好平衡。这起事件既展现技术效率,也揭示人机协作的认知差距。只有完善专业监管和技术伦理框架,才能让科技进步真正造福全民健康。(完)