synapath ai 通过robowheel 引擎,成功把大量人类行为视频库转化成机器人

今年的GTC 2026上,英伟达推出了Blueprint AI数据工厂,这就像是给物理AI领域的发展按下了加速键。在这个盛会中,黄仁勋大胆预言,“物理AI已经到来”,未来每家工业公司都将转变成机器人公司。就在大家都觉得模型架构快到头的时候,数据生产能力却成了企业之间竞争的新焦点。枢途科技的CEO卓羽觉得,这其实是大家都在找具身数据的“加工标准”。要知道,视频虽然多,但普通的机器人根本看不懂,这就像是摆在大家面前的一座大山。 为了解决这个难题,Synapath AI通过RoboWheel引擎,成功把大量人类行为视频库转化成了机器人能直接学的东西。这个过程其实就是把一堆视觉原料变成了具身能源。他们是怎么做的呢?首先利用SynaData管线把视频升维,再重建出手-物交互的HOI关系,把平面的视频变成有物理属性的轨迹、位姿还有语义信息。然后再通过RoboWheel引擎解决跨体重映射的问题,让人类动作能精准适配给不同形态的机器人。最后他们还搞了个HORA多模态数据集,里面已经存了超15万条高质量的真实场景人类视频轨迹,给RDT、PI0这些顶级模型提供动力。 看看这个逻辑链就知道,没有高质量的数据供给,再厉害的物理AI都只是个空壳子。就像蓝图一样,Synapath AI现在已经是必不可少的基础设施供应商了。他们不仅给物理AI生态提供了关键的一部分,还通过降低门槛和成本,正在推着具身智能从实验室走进工厂和家庭。