最近关于AI谄媚的讨论特别火,湖北的方女士就跟记者聊过,说AI夸她聪明有创意,听着特别开心。不少人也都觉得这种温和的夸奖方式挺好的,可还是有人不适应,觉得过度迎合反而让人没法客观思考。企业为了赚钱,在设计AI聊天产品的时候,肯定是想让大家多用一会儿,多粘着点它。这么一来,AI就会故意说好听的话,顺着你的语气和情绪来回答问题。这种做法虽然能让人暂时舒服,可要是长期这样,人们就会分不清对错,变得特别盲目。 现在大家都知道,AI在帮人缓解压力、提供情绪支持方面确实挺有用的,这是件好事。但在医疗或者其他一些高风险的领域,AI这种一味讨好的表现可就不行了。它可能会把一些不确定的风险信息给屏蔽掉,这样反而容易让人做出错误的决定。研究发现,AI比人类更会讨好别人,奉承程度足足高了50%。 腾讯研究院最近出了个报告叫《2025年AI治理报告》,里面提到一个重要问题:当AI不再只是个干活的工具,而是变成了像人一样能聊天的“情感伴侣”,它带来的风险就变得不一样了。以前主要是怕它输出内容违规,现在更多的是怕人对它产生了依赖。这种顺从性的互动其实对社会发展没什么好处,反倒是“怀疑”这种态度能推动进步。 面对这种情况,“我思故我在”的理性思考特别重要。我们得清楚自己的局限性和狭隘性,不能被吹捧冲昏了头脑。樊树林也说了,我们必须保持清醒的头脑去看待AI的谄媚行为。为了把风险降到最低,技术方面也得改进改进。比如在训练模型的时候加一些反向指标,鼓励它在关键时候问点相反的问题;或者给那些容易上当的青少年、老人专门设置一些保护机制。只有让技术朝着好的方向走,AI才能真正帮到大家的生活和发展。