英伟达推出vera rubin ai 平台,实时智能体推理也全包了

刚在2026年GTC大会上,英伟达给咱们带来了个大消息,就是推出Vera Rubin AI平台。虽然是在美国加州圣何塞搞的活动,但咱也都知道,黄仁勋说的这代际飞跃,就是他们史上最大规模基建的开始。这家伙不光想搞深度学习预训练,还把实时智能体推理也全包了。最猛的是,英伟达这次把自己彻底扔进传统CPU直销赛道里去了,直接去跟英特尔、AMD打擂台,顺便还挑战一下全球云计算巨头的Arm架构处理器。 为了让机器跑得更快,他们在Vera CPU上直接下猛料。这单颗芯片居然塞进去88个核心和144个线程。其实这就是用英伟达深度定制的Arm v9.2-A Olympus核心搞的事儿,光IPC就提了1.5倍。更狠的是它首发了个叫“空间多线程”的黑科技,说白了就是把流水线物理隔离,让多个线程在单核上真正并行,再也不用排队抢资源了。 算力层面也有大动作。新一代NVL72机架直接连了72块Rubin GPU和36块Vera CPU,就靠着NVLink 6连在一起。跟以前的Blackwell平台比起来,现在要训练混合专家大模型(MoE),只用四分之一的GPU就行,而且每瓦推理吞吐量能翻到10倍,单Token成本直接降成十分之一。 还有那个验证AI模型结果用的Vera CPU机架也很硬核,里面塞了256块液冷CPU,速度比普通CPU快50%。为了满足智能体系统低延迟和长上下文的需求,英伟达还拿Groq 3 LPX推理加速机架来凑数。这个机架里有256个LPU处理器,跟Vera Rubin一联手,每兆瓦的推理吞吐量居然飙升到了35倍。 最后是数据存储这块儿的新动静。全新BlueField-4 STX机架把AI原生存储架构给搭起来了。靠着DOCA Memos框架高效处理KV缓存数据,能耗降下来了不说,推理吞吐量还能翻5倍。这下AI多轮交互肯定能做得更快了。