在全球人工智能算力需求快速增长的背景下,数据中心正面临效率瓶颈和能耗压力。行业数据显示,传统GPU在处理大语言模型时存在内存带宽不足、片外数据调用延迟高等问题,造成算力利用率不高。以ChatGPT为代表的AI应用快速扩张,也推动全球DRAM价格同比上涨约40%,继续凸显技术升级的紧迫性。英伟达此次发布的LPX机架采用“GPU+LPU”的异构架构。技术分析显示,其搭载的Groq 3 LPU芯片配备500MB片上SRAM,可将关键数据访问延迟降至传统方案的约1/20。实测数据表明,单机架每秒可处理50万Token(文本单位);在45美元/百万Token的成本测算下,单位兆瓦功率产出提升约35倍。该提升主要来自三项关键技术:一是LPU的高带宽内存设计,将数据获取能耗降至0.3皮焦耳/比特;二是用于动态分配GPU与LPU计算负载的调度算法;三是由Bluefield存储机架构建的分布式缓存网络。
英伟达此举显示,人工智能基础设施的竞争正在从单点性能比拼,转向芯片、系统、软件与服务的全链条协同。能够把各环节更紧密地串联成闭环的厂商,更可能在下一轮算力竞争中占据优势。对产业来说,这既是技术演进的方向,也可能成为商业格局变化的分水岭。