uber前自动驾驶老大最近翻车了,车里还坐着他儿子。mozilla 首席技术官raffi krikorian把这件事写成

Uber前自动驾驶老大最近翻车了,车里还坐着他儿子。Mozilla首席技术官Raffi Krikorian把这件事写成了长文,发在了《大西洋月刊》上,从头到尾讲了特斯拉Model X在FSD模式下的这次大事故,还从专业角度扒了扒这个系统的硬伤。他以前在Uber管自动驾驶团队,专门教那些安全驾驶员怎么在系统失灵的时候动手干预。在他那两年里,Uber的早期试点项目一直没出过伤。 这次倒霉事是发生在一个普通周日的路上。他开车送儿子去参加童子军活动,在湾区那条他跑了几百遍的住宅区街道上。当时车开在FSD模式里,本来跑得挺稳,结果就出事了。刚拐个弯,FSD突然像掉了魂一样失灵,方向盘猛地自己晃起来,车也开始减速。他赶紧去抢方向盘,可晚了一秒都没了,最后“咣当”一下撞在了水泥墙上。 那时候Raffi撞得脑震荡、脖子僵硬,头疼了好几天,幸亏后座的孩子没事。虽说他也是IT圈的大佬,结果还是被FSD给坑了。他一开始只敢在高速公路上用FSD,因为车道线清楚、路况也能预测。后来慢慢熟悉了才敢在普通路上用,觉得还不错就习惯了。这次出事前他手一直扶在方向盘上,就是按特斯拉说的那样保持着警惕。但他心里明白,FSD这玩意“训练”了他去信它。 等警察来了一看保险单,上面写的是他的名字而不是特斯拉。现在的法律规矩就是这样:特斯拉的FSD算Level 2级别,出了事儿全得算在司机头上。 Raffi还专门提了一下特斯拉的数据处理方式。车里一直录着司机手在哪儿、反应快不快、眼睛往哪瞅这些数据。出事后特斯拉老爱拿这些数据当借口说责任在司机身上。想自己看自己的数据?基本上只能拿到一堆乱七八糟的碎片。 在佛罗里达州有一个特别有名的官司里,原告方最后不得不请黑客去芯片里找证据;结果特斯拉却说根本找不到数据。 他还分析了“监督式”自动驾驶的大毛病。他觉得特斯拉让人类去看一个专门设计出来让人觉得没必要看的系统。就像他说的:机器不可靠会让人精神紧绷;机器太完美就不用人看;可要是机器近乎完美反而会害人——让人信到连看都不想看的地步。 现在市面上的Level 2辅助驾驶车出事都有这个通病——就是出事前都以为系统万无一失甚至还敢睡觉。 心理学家管这叫“警觉性衰减”:长时间盯着一个快完美的东西特别累人;累了就容易走神、不重视。一旦辅助驾驶关了或者停了,司机要回过神来得花5到8秒钟;这时候真遇上急事根本来不及救场。 他引用了美国公路安全协会的数据:用了一个月自适应巡航控制后看手机的概率会翻六倍以上。 特斯拉虽然嘴上提醒大家别自大(自以为懂行),但99%的场景下开车都很顺滑反而让人更自大。 他举了两起有名的例子:2018年山景城那个案子里,苹果工程师沃尔特·黄在撞上隔离带前有6秒反应时间却从来没碰过方向盘;还有同年亚利桑那州坦佩的Uber事故里,传感器在5.6秒前就发现了行人,可安全驾驶员直到最后不到1秒才抬头看一眼。 在这次撞车事件里Raffi确实想动手救一下车;但他得在最后一秒钟里打破长期养成的信任惯性、把自己从乘客状态一下子变成司机状态——这事儿基本上没人能办到。 车子的日志也写着他当时确实打了方向盘;可就算那样也没能在撞车前那1秒钟里扭转局面。 照Raffi的说法:特斯拉先是把人伺候舒服了建立好感;再用连续几个月顺顺利利的表现把警惕性消磨光;让司机对这个“其实并不是100%可靠的功能”产生了心理依赖;最后等出事了就搬出服务条款让司机背锅——FSD没毛病时特斯拉得声称赞誉;出了岔子全赖司机。 他还特意拿比亚迪做了个对比。2025年7月比亚迪宣布以后自家的自动泊车出了事故不用保险理赔也不影响驾驶员的记录。虽然这种例子不多;但这说明车企跟司机分担责任是个选项而不是没有办法。