大伙儿都琢磨着靠大模型就能看病了?专家说了:这事儿还真不行

大伙儿都琢磨着靠大模型就能看病了?专家说了:这事儿还真不行。《自然-医学》杂志新出的研究也提到,虽说语言模型(LLM)被看作帮大家获取医疗信息的潜在工具,甚至让大家伙儿在找医生前先用它做个初步评估,但实验证明这事儿不靠谱。 咱先来看测试成绩。要是不叫人来参与,光让LLM自己在题目里答题,这正确率可是相当高的。平均下来能有94.9%的情况能把病看对,行动方案也能选对56.3%。可一旦换成真人来体验就不行了,这回识别病症的准确率直接掉到了34.5%,选对行动方案的更是不到44.2%,连对照组都没超过。 照这么看,即便是在医师资格考试中拿高分的LLM,到了真实世界里的交互场景里也不一定灵光。毕竟这种冷冰冰的技术跟人的日常交流还是有差距的。所以啊,大伙儿还是别指望光靠它来自我诊断和管理病情了。