英伟达爆料说,Blackwell Ultra每兆瓦能处理的文本量是霍珀的50倍,这简直太离谱了。他们的GB300 NVL72架构居然能让百万字的成本暴跌到原来的1/35,简直比买白菜还便宜。还有DeepSeek-R1测试显示,这种能效提升简直就像坐了火箭一样。给IT之家发了个消息说,NVIDIA 2月16日公布了这个惊人的进步,还特地用这篇博文把Blackwell Ultra AI架构捧了起来。除了把每兆瓦吞吐量提上去,他们还拿NVLink技术把72个GPU连起来当一个大怪物用,互联带宽更是直接飙到130TB/s。这要是对比一下霍珀时代的老款8芯片设计,那简直是把过去的技术踩在脚底下。再加上NVFP4的精度加持和极致的协同设计结构,Blackwell Ultra在处理大文本这块儿,简直是无敌了。不仅效率高,成本也低,每百万Token的开销降到了35分之一;就算是对上一代的GB200来说,在长文本处理上也只需要1.5分之一的成本。这速度快得就像把子弹打出去一样。 OpenRouter那个报告也说了,跟写代码有关的AI需求爆涨得特别厉害,占比从11%直接干到了50%左右。这种应用通常都需要AI代理在工作流里一直保持在线并能跨代码库推理。英伟达为了对付这种硬茬子,给TensorRT-LLM和Dynamo团队下了死命令去优化混合专家模型(MoE)的推理速度。结果就是GB200在低延迟任务上只用了四个月就把性能提了5倍。英伟达还预告说下一代Rubin平台准备出来了,每兆瓦吞吐量还能比Blackwell再提升10倍呢!这简直就是在给AI基础设施搞一场大革命。