周鸿祎在中关村论坛提示大模型“计量成本”现实:算力约束下Token难成“无限流量”

数字经济加速发展的背景下,人工智能服务的成本问题正成为行业关注的焦点。3月29日,在中关村论坛全球独角兽企业大会上,360集团创始人周鸿祎在专题演讲中聚焦该议题。通过对比移动通信与AI服务的成本结构,他指出了当前人工智能产业化推进中的重要瓶颈。 从本质上看,AI服务以Token计量的方式与通信流量在经济模型上并不相同。通信网络具备明显的规模效应,用户规模扩大往往会摊薄单位成本;而AI服务呈现相反特征——使用量越大,算力投入、电力消耗等成本越接近线性增长,甚至在特定场景下出现更快的攀升。以大语言模型为例,处理简单查询可能仅需约0.01美元,但面对复杂任务,资源消耗可能放大数十倍乃至上百倍。 这种差异背后,与技术架构的物理约束密切有关。当前AI系统高度依赖高性能计算集群,核心硬件如GPU不仅采购成本高,运行过程中的能耗也十分可观。行业研究显示,训练一个基础大模型的电力成本可达百万美元量级,这与通信基础设施“建设后长期复用”的特性形成对照。 这样的成本结构正在带来多上影响:其一,较高的使用成本抬升了应用门槛,限制了AI的普及;其二,企业在商业模式上承压,难以简单沿用互联网时代的“免费”逻辑;其三,高能耗也引发对可持续性的担忧。有工程师提到,部分数据中心的单日用电量可接近一座小型城镇的用电规模。 面对挑战,行业已在多条路径上尝试破局。一些企业通过优化模型架构和算法,降低计算需求;一些推动专用芯片研发,以提升能效;也有机构探索分布式与边缘计算,将部分负载转移至终端设备。另外,开源生态的成熟,为中小企业和个人提供了更可负担的技术选择。 展望未来,业内普遍认为AI服务成本将逐步下降,但要实现真正意义上的“无限量”模式仍存在结构性障碍。要跨过这道门槛,既需要计算架构与工程能力的持续突破,也需要更精细的服务分层与定价体系。在这一过程中,如何在技术创新、商业可行性与社会效益之间取得平衡,将是长期课题。

大模型应用的价值,既取决于能力上限,也取决于成本下限;把Token视作“算力与能源的账本”,有助于行业回到常识:技术进步可以降低成本,却难以消除成本。面向未来,唯有在基础设施、工程效率、产品分层与商业机制上同步发力,才能让新技术从“炫技”走向“普惠”,在可持续前提下释放更大社会与产业效益。