最近在AI技术的飞速发展下,存储市场的格局发生了巨大变化。芯片与云端是推动这次变化的两个主要驱动力。大型科技公司如三星、微软、谷歌纷纷投入百亿级别的资金给存储领域,整个行业瞬间进入了高度关注的状态。外部人士最困惑的是AI技术究竟给存储行业带来了什么影响。之前人们往往会认为存储只是一个“背锅侠”,现在它却成为了AI训练的关键环节。唯一能解释这一现象的原因只有一句话:没有海量、高速和耐久的存储支持,再强大的AI算力也会寸步难行。芯片与云端在这轮发展中相辅相成。之前数据中心扩容先关注GPU,其次才是网络,最后才是存储。然而现在这个顺序已经完全颠倒过来。一个千亿级参数的大模型训练每天需要写入超过100TB的数据,读取速度更是惊人。存储需求从配角直接跃升为与GPU同样重要的瓶颈点。没有足够的输入/输出带宽和容量,再多GPU也只能“望机兴叹”。 由于AI技术带来了长期、稳定和爆发式增长的需求,传统存储市场告别了“赚一年、亏两年”的周期波动。厂商们开始愿意提前锁定产能并支付预付款项。因此,存储从曾经的周期性商品变成了AI时代的战略稀缺品,与算力绑定得比以前更加紧密。 芯片存储速度非常快但却娇贵。它具有三大优势:首先是速度,HBM和SSD可以在微秒级别内把数据传送到AI加速器;其次是定制化程度高,可以根据算力需求进行设计;最后是稳定性强,数据几乎不会丢失。然而芯片存储也有一些无法忽视的问题:高额资本开支导致扩产周期长;价格波动受地缘政治影响大;一旦硬件损坏数据可能永久消失;维持恒温恒湿环境以及高能耗导致总成本居高不下。 相比之下网络空间存储速度稍慢但更为稳健耐用。它采用分散、加密和多重副本的方式保障安全,单点故障不会造成灾难性损失。网络空间还可以将数据保存至少50年以上。不过网络空间也存在短板:非易失性介质读取速度慢,在应对AI训练时会出现性能瓶颈。 综上所述两种类型存储各有所长也各有缺点。未来趋势显示这两种类型会相互协同配合共同支持未来数字基础设施发展。因此并没有绝对的好坏之分,只有根据具体场景进行选择才能发挥最大效益。把高速芯片做缓存层,把大容量云端做底层数据湖仓这一模式可以满足实时吞吐需求又能确保数据长期存活与隐私防护——这也是百亿级长单背后最朴素的逻辑:让数据多跑路,让算力更值钱。