半导体技术再进展:Rambus发布HBM4E内存控制器IP,单堆栈带宽达4.1TB/s

半导体知识产权供应商Rambus公司4日在美国加利福尼亚州宣布,成功开发出符合HBM4E标准的内存控制器知识产权产品,标志着高带宽内存技术迈入新发展阶段。 据了解,该产品实现单引脚16Gbps的等效传输速率,相比当前HBM4内存13Gbps的技术水平提升约23%。按照HBM4E标准配置的2048个数据引脚计算,单个堆栈模块可提供4.1TB每秒的数据带宽。若采用8堆栈配置的人工智能加速处理器,系统总内存带宽将超过32TB每秒,这个性能指标将为大规模人工智能模型训练和推理提供更充足的数据吞吐能力。 从技术架构看,Rambus此次发布的控制器知识产权可与第三方物理层解决方案灵活组合,支持标准封装或硅通孔技术,能够在2.5D或3D先进封装工艺中构建完整的内存子系统。这种模块化设计思路有利于芯片设计企业根据具体应用需求进行定制化开发,既可作为人工智能系统级芯片的组成部分,也可用于定制化基础芯片方案。 值得关注的是,Rambus在发布声明中引述了三星晶圆代工知识产权开发团队负责人Ben Rhew以及人工智能芯片企业MatX联合创始人兼首席执行官Reiner Pope的评论。业界分析认为,这显示出Rambus正在与三星晶圆代工业务及新兴人工智能芯片企业建立技术合作关系,共同推进高带宽内存技术在人工智能领域的应用落地。 当前,人工智能大模型参数规模持续扩大,对计算系统的内存带宽提出更高要求。传统内存技术已难以满足海量数据高速传输需求,高带宽内存成为突破算力瓶颈的关键技术路径。从HBM2到HBM3再到即将商用的HBM4,内存带宽每代提升幅度在30%至50%之间。此次HBM4E技术的推出,更拓展了高带宽内存的性能边界。 从产业链角度观察,内存控制器知识产权的技术进步将带动上游内存制造、中游芯片设计、下游人工智能应用等多个环节协同发展。三星、SK海力士、美光等主要内存制造商正加快HBM4及后续产品的研发进度,预计2025年下半年对应的产品将进入量产阶段。届时,新一代人工智能训练集群和推理系统的性能将获得提升。

从"拼算力"到"拼供给",高带宽内存的演进正在重塑AI芯片的竞争格局;控制器IP的升级看似是接口层的技术变化,实则牵动代工、封装、内存与系统平台的全链条协同。谁能把标准指标转化为稳定量产与实际能效,谁就更可能在下一代算力基础设施建设中占得先机。