最近英伟达公司在CES上出了个大动作,直接把自家研发的自动驾驶推理模型Alpamayo给开放出来了。这个举动挺让人意外的,毕竟这是他们第一次搞这么彻底的开源。作为这家公司的创始人兼CEO,黄仁勋肯定是要亲自站台的。他说了,这个模型虽然实现了端到端训练,但是安全性验证还得靠实际应用去慢慢积累。 这次英伟达开源的不仅仅是代码,还给大家配了个高保真仿真框架AlpaSim,还有覆盖多国路况的1700小时驾驶数据集。这个组合凑在一起,算是把算法模型、虚拟测试和训练数据这一整套工具链都给搭起来了。对于那些资源有限的初创公司来说,这些都是非常宝贵的基础训练资源。 大家都知道,自动驾驶以前的做法是按“感知-规划-控制”这种顺序来的。但是遇到信号异常或者障碍物这种“长尾场景”,传统系统往往就不太灵光了。这次Alpamayo用的是视觉语言动作(VLA)的架构和因果链推理能力,能模仿人开车的思维过程去逐步推演环境。 这种把核心模型当“教师模型”的策略挺有意思的。各家车企只要用自己的私有场景数据去微调一下,就能快速推出适应自己市场法规的“学生模型”。这就好比让大家把造大模型的时间省下来,专门去搞差异化应用开发。 这次行动的背后逻辑很清晰:通过开源吸引更多人进来玩,英伟达就能收集到各种优化反馈。这些反馈能反哺到芯片和开发工具上,进一步巩固他们在产业链中的位置。而且有了统一的技术框架和评估标准,也能减少大家重复投入的问题。 从产业层面看,这对L4级自动驾驶的研发肯定是个大促进。梅赛德斯-奔驰的新款CLA已经传出消息要应用这个技术了。不过话说回来,开源虽然降低了门槛激发了活力,但怎么保证技术安全合规还是个大问题。未来的智能汽车产业分工模式还得靠大家一起探索。虽然这条路还很长很艰难,但这种打破壁垒汇聚众力的尝试绝对值得期待。