最近在AI圈里,大家都在聊OpenClaw这个框架,各个大厂商都说它能把复杂任务拆开解决,但很少提到ChatGPT。这背后其实是因为用大模型处理日常任务太贵了。比如给客户回邮件,从理解意图到一条条发送,每个环节都得调用模型。要是全程都用那个最强版的GPT-5.4,花的“饲料费”(token费)可能都比实际赚的钱多。 为了省钱,现在的AI干活方式变了,不再是一下子干高强度的活儿,而是分成一步一步来做。这种变化逼着大家去要更便宜、更快的模型。OpenAI这次就拿出了GPT-5.4 mini和nano这两个小型号,说这是最强大的轻量化方案。它们保留了大模型的本事,还省了电和时间,特别适合那种一天跑几百遍的活。 那个最小的nano版本就是专门给对成本特别在意的任务准备的。它算输入的钱只要旗舰版的8%,也就是0.2美元每百万个token;算输出的钱差不多是旗舰版的十二分之一,也就是1.25美元每百万个token。另一个mini版本也不便宜,输入是0.75美元每百万token,输出是4.5美元每百万token,不过性能快赶上满血版了。 OpenAI的定价策略直接打在了用户的痛点上,把用户账单上那些零碎的费用都给砍掉了。数据显示现在大家最爱用的轻型模型特别多。在OpenRouter最火的排行榜里有六席都是这类轻型的。有个叫MiniMax M2.5的模型上个月更是暴涨了476%。再看Hugging Face上的下载统计,92.48%的人都在下载那种参数不到10亿的小模型,只有7.52%的人去下那种参数超过1B的大模型。 这说明虽然大家嘴上说着大模型厉害,但实际干活还是轻型的更管用。OpenAI自己也是这么想的。到今年二月,ChatGPT全球有9亿多用户每周都在用它,但是真的掏钱的人只有5%,大多数还是免费的。这些人主要是想聊聊天、润润色代码之类的轻活,不需要太费劲的推理能力。那种百亿参数的小模型就能搞定这些事。 在实际测试中这俩小型号表现也不错。在SWE-bench Pro这种考程序员的测试里,mini版答对了54.4%的题,跟满血版的57.7%差不多;nano版虽然只有52.4%,但便宜得多。在真的电脑上测试操作界面的时候(OSWorld-Verified),mini版拿到了72.1%的分数,离75%只差一点点;nano版就只有39.0%,说明在复杂操作上还差点意思。 但这并不意味着它们要取代大模型。大模型是用来干顶层战略的活儿的,小模型就像精锐骑兵一样去执行具体的步骤。这样分工合作效率高了,成本也下来了。OpenAI的野心不仅是便宜一点——它们是想通过卖更多的小模型把AI变成基础设施的一部分。让AI从以前的奢侈品变成现在人人都能接触到的日用品。