别把ai当“弹跳板”来整理思路很重要

虽然安嫩伯格(Annenberg)的调查显示,约63%的受访者觉得AI生成的健康信息可靠,但大家对CDC和FDA这些权威机构的信任度在近年下降了5到7%。这就给了像微软推出的Copilot Health、Anthropic这些大厂推进医疗方向的模型机会,让它们快速进入人们的生活场景。Apple也在iPhone17及后续机型的健康能力上被频繁讨论。 AI在分流患者信息和预判就诊需求时确实有帮助,还能给出一些饮食、运动的建议,适合用作参考。但它不能代替医生的诊断。比如ChatGPT在一项危急病例研究中对半数以上的病例都存在低估严重性的情况。Alexa Mieses Malchuk医生指出,AI可能会自信地给出错误判断,也可能因为用户没提供完整的病史或用药信息而得出偏差的结论。另外,普通聊天机器人不是受监管的系统,上传病历或影像这些敏感数据很危险。有些患者还会因为相信AI的结论而不愿告诉医生实情。 把AI当“弹跳板”来整理思路很重要。就诊时记得告诉医生你用了哪个AI、它给了什么建议还有截图。不要在普通机器人里上传身份证明类资料。遇到呼吸困难、胸痛等紧急情况必须立刻去医院。如果AI给出了具体用药方案,千万别听它的自行买药。最好把这些建议带给主治医生一起讨论。 与其妖魔化AI,不如理性看待它的价值。把它当成快速获取信息和整理问题的工具就好。遇到紧急信号马上就医;平时咨询可以按这6条规则来用,并在就诊时和医生分享AI信息。简短的话术模板比如:“我昨晚用某聊天机器人描述了症状,它建议……,能否帮我核实?”“这是AI给出的文字/截图,请您指出哪里需要补充检查或注意的地方。”