英伟达和t-mobile、诺基亚一道,让ai-ran 边缘计算进入了现实。到了2026年3月17日

英伟达和T-Mobile、诺基亚一道,让AI-RAN边缘计算进入了现实。到了2026年3月17日,英伟达在GTC大会上正式放话,跟T-Mobile以及诺基亚这些伙伴一起,把AI-RAN这个技术给推出去。这个AI-RAN是那种能把传统网络变分布式边缘计算平台的东西,让5G不光是用来打电话、发消息,还能像电脑一样实时去感知环境、做判断。英伟达CEO黄仁勋说了,这一套架构主要是给机器人、自动驾驶的车子还有那些眼睛能看的AI代理提供实时的计算力。现在T-Mobile已经在美国搞试点了,用他们家的独立组网技术5G SA,把复杂的计算任务从手机或者摄像头那边搬到了网络边上的小盒子里。这么一来,硬件门槛就降下来了,大规模铺开也变得方便。 基于这个新架构,不少开发者生态系统都在搞“物理AI”的应用。比如用NVIDIA Metropolis平台的视频理解能力,企业就能搞出能自己做决定的视觉AI代理。这些东西能用来管城市、看电塔或者是干工业里的安全活儿。就在圣何塞那边,大家已经拿智能交通系统来试了试。他们用数字孪生和视觉分析来调信号灯的红绿转换,目标是把出事故之后的响应速度给提上去整整五倍。在工业上也是一样,AI-RAN支持无人机和摄像头去飞输电线路自动巡查。要是发现电线腐蚀了或者杆子歪了、热得不行,AI能立马给识别出来。在那些工人搞高危作业的时候,视觉AI系统也能盯着屏幕看有没有人有危险动作。 除了这个项目外,英伟达还弄出来了新一代的视频搜索与摘要框架VSS3。这个东西通过模块化的设计还有多模态的理解能力,让AI能在几秒钟内从海量视频里挑出关键的几秒钟来分析一下。分析速度是人工的一百倍以上。这主要是为了解决全球那几十亿个摄像头拍出来的录像没人看的问题——现在虽然摄像头很多,但真被人仔细看过的视频其实连1%都不到。 这个AI-RAN的合作算是边缘智能计算落地的一个重要信号了。未来各行各业肯定会用上这套解决方案和更多创新的玩意儿。