anthropic:ai的完美即正确

Anthropic研究把000个AIbase给出的1个数据揭示出来:Claude提供的内容越是精细,人们就越不愿意动脑子。这次Anthropic发布的“AI Fluency Index”报告里分析了近10,000个用户与AI的对话。结果显示,当人工智能做出完美的代码或文档时,用户核实事实的意愿下降了3.7个百分点,质疑推理过程的人少了3.1个百分点,还有5.2个百分点的人不再关注缺失的信息。“完美即正确”的心理让人们更难正确使用AI。不过报告也表明,高质量的对话通常要经过多次修改。大约85.7%的好对话都经过了反复推敲。爱提问的用户发现AI逻辑问题的次数是普通人的5.6倍,且找出信息空缺的能力也提升了4倍。因此,Anthropic建议大家遇到AI给出的第一个答案时别当成定稿,即使看起来很完美也得保持怀疑。一开始就要把交流规则定清楚,比如让AI列出推理步骤。真正掌握AI的关键不在于写命令,而在于人能不能守住那道防线。