说起来,前阵子有个关于AI医疗工具安全性的研究结果在网上传开了,是发表在《自然医学》上的。这事儿主要是聊ChatGPTHealth的,就是那个OpenAI搞出来的健康服务。我是说,研究组拿60个真实患者的情况去测试,结果挺让人捏把汗的。 你想啊,给那些原本急需要立马送去医院的病人,ChatGPTHealth却劝他们自己在家待着,或者就预约个常规门诊。这中间就有一半多的场景出了岔子。我看了下具体对比,医生们的评估标准和AI的建议对不上号。尤其是面对那种特别复杂或者症状不明显的情况,ChatGPTHealth就像个软脚虾,完全不行。 而且最让人头疼的是自杀风险这一块。研究人员发现系统给的警告功能不靠谱,稍微加点别的信息就不管用了。OpenAI那边虽然回应说这次实验没反映真实情况,还说模型在一直更新改进,但我还是觉得这事儿得引起重视。 大家在网上看东西还是得留个心眼,特别是生病的时候。要是遇上什么真要命的急事儿,可千万别瞎听AI的瞎指挥,毕竟这系统有时候还是会让人挺失望的。