最近,骗子的手段又升级了,他们利用AI技术,专门骗那些上了年纪的老人。他们通过AI生成语音,模仿受害者孙子的声音,让老人相信他们急需用钱,然后派“朋友”上门取钱。这个案子把AI诈骗的丑陋面目完全暴露了出来。最高法在2026年3月公布了这起典型案例,给大家敲响了警钟。 骗子的套路其实很简单,但却能让老人完全崩溃。第一步,他们用AI模仿受害者孙子的声音,告诉老人自己出了事,急需用钱。第二步,他们让“朋友”上门去取现金。这一步就是所谓的“人肉提款”,那些负责收钱、点钱的人就是我们常说的跑腿或地推。这些“朋友”虽然不直接打电话给老人,但他们在法律上也被认定为帮助犯。 这次案件最让人痛心的地方是,骗子利用科技手段精准攻击了两代人之间最基本的信任——声音。很多人可能觉得老人太容易上当了,或者是子女对父母关心不够。其实这些都只是表面现象,问题的根源在于骗子利用AI这个工具来破坏信任。 法院对这次案件做出了明确判决:使用AI变声打电话的主犯和上门取钱的“朋友”都要坐牢。这就意味着诈骗产业链上没有一个环节是无辜的。如果你以为自己只是个跑腿的,在老人颤抖着递出养老钱的时候,你就已经成了把刀扎进他们心里的人。 我们不能再用“老人糊涂”或者“不会用智能手机”来给自己找借口了。骗局已经升级到AI代打的程度,我们的防范观念也得跟得上变化。下次接到这种急事电话时,什么也别信、什么也别说,直接挂断然后用你自己的手机打给你真正的孙儿确认情况。 如果打不通也别急,赶紧报警拨打110。警察总比骗子靠谱得多。 最后我想给大家留一个问题:当科技能让假孙子听起来比真孙子还真时,除了保持警惕和多打一个电话核实之外,我们还能拿什么来守护那点可怜的基于血缘的信任?请大家在评论区聊聊你的想法吧!