Riverbed这回放出了企业级的AI数据传输优化方案,目的是帮那些搞AI的公司把数据传送顺畅起来。咱们以前总说本地存储和算力不够用,这才推大家把数据扔到了云上,结果现在不少公司手里攥着十几甚至几十PB的数据。这些数据要是真用在AI上确实挺好使,但问题是它可能不在最合适的位置。你看现在大家都玩多云策略,数据本来就分散在好几个服务商那儿,就算都堆在一个云上,也可能把机房建在了电费贵得离谱的地方,肯定没那么多GPU资源跑工作负载。不管是哪种情况,企业都得背锅去搬这一大堆数据。这玩意儿不光贵,光出网费就要花掉8万美元,哪怕在一个公司内部搬也是一样。而且这事儿还得管得严,得保证数据没被弄坏就进了对的地方。速度上也是个大瓶颈,拿10Gbps的线传1PB的数据,算下来大概要9天时间。当然这是传历史数据的情况,通常AI模型还得不断喂新的料。虽然量没那么大,但你也得跑得快点才行,毕竟模型一直在那儿转呢。Chalan Aras这位Riverbed的加速业务老大就说了,咱们现在把这25年折腾数据传输的经验给用到了客户的云环境里。具体做法就是先把数据从仓库里拎出来,再把网络这一关给做好优化。"我们就是把它放在盘里端给你吃。"他这样比喻。比如有个客户本来想用1PB的数据去练个AI模型,结果按原来的流程走要等12天这才只是开头。后面还有20PB没动呢!这家伙还在那儿抢GPU资源的排队号子呢,眼看着deadline就快到了!结果Riverbed直接在三四周内就把活儿干完了,没让数据传输成项目的拦路虎。还有在金融圈的合并案里,有一家公司要把30PB的数据从一个云挪到另一个云去。Riverbed也没费太大劲就在一个多月里头搞定了这件事。 说到底呢,以前的IT团队做决策都是看心情来的。哪怕上面有统一规定,底下的部门和业务线也有各自的想法。所以现在的公司一般都是本地机房、几个云环境还有一堆SaaS软件混着用的模式。虽说大家都在想办法往一个云提供商那合并,但组织还得琢磨琢磨对方到底能不能全包圆而不逼着自己妥协。 Aras也吐槽说就算是最牛的超大规模云服务商也不可能全世界都有据点嘛。再加上别的原因,哪怕为了能有选择不被对方卡脖子也得留后手。 这种系统到处开花倒是没啥坏处,直到所有人都想把所有数据聚在一个地方的时候麻烦才来了。AI用得越来越多这种需求也变得越来越普遍了。想要从数据里挖出全部的油水出来,企业就得面对移动大量数据的刚需——不光是一次性的事儿还是持续的基本操作。 特别是对于那种智能体AI来说要求就更高了。它得从无数个地方找信息来回答问题才行。 对用户来说这当然挺好的回答得特别快,但真的要弄好就得不停地搬数据过来支持模型实时响应的能力。 以前Riverbed主要是帮大家搞定那种一次性的搬家工作比如把系统挪到云端去。 不过Aras也发现现在的客户越来越需要那种持续不断地往那边倒流量来支撑自家的AI策略了。 他就说他们公司的路子正好能吃这两套活的饭。 Q1:AI项目里数据搬来搬去有啥难处? 答:企业面临的困难包括数据散在多个云服务商、成本高(每PB出口费高达8万美元)、速度慢(1PB数据通过10Gbps线要9天)还有得严防死守保证数据不丢。 Q2:Riverbed咋帮咱们解决这个问题? 答:他们利用25年搬砖经验把数据从仓库里弄出来优化了网络传输效率。举个例子就是把以前要拖8到9个月的30PB迁移任务缩到了一个多月就完事了。 Q3:为啥智能体AI更磨人? 答:因为它得从一大堆乱七八糟的源头扒拉信息才能答对你的话茬儿,这就逼着大家得频繁搬家弄数据去支持模型实时说话的能力。