阿里这三款新的千问3.5 模型,用百万token算下来只要0.2元

阿里这就放出了三款新的千问3.5模型,用百万Token算下来只要0.2元。虽说就在2月25日这天,阿里又把开源的大旗一挥,接着Qwen3.5-397B-A17B的路子往下走,这回是直接抛出了三款中等大小的新模型。这些模型分别是Qwen3.5-35B-A3B、Qwen3.5-122B-A10B,还有个Qwen3.5-27B。因为架构上有了大创新,训练上也有了突破,这次的新模型不光把上代旗舰Qwen3-235B-A22B和Qwen3-VL给比下去了,在IFBench、GPQA、HMMT 25、MMMLU、BFCL v4、SWE-bench Verified这些榜单上也把远大于自己的老大哥甚至GPT-5 mini、gpt-oss-120b给甩在了身后。 而且这几个新模型特别贴心,你连显卡都不用配得特别好就能直接跑起来。现在阿里云百炼上已经上线了基于Qwen3.5-35B-A3B的托管模型Qwen3.5-Flash,这玩意儿每百万Token输入只要0.2元。为了达到这么高的性价比,模型采用了混合注意力机制和稀疏MoE架构,还在超大规模的文本和视觉混合Token上训练过,结果就是参数少了、性能强了。 最让人眼馋的还是那个Qwen3.5-27B,这是家族里头第一个真正的密集型模型。它不光工具调用、搜索编程这些活儿干得漂亮,在Agentic Coding的SWE-bench Verified评测里也超过了GPT-5 mini。视觉理解这块儿更是一绝,不论是文本识别还是视频推理,都把Qwen3-VL旗舰和Claude Sonnet 4.5都给碾压了。单卡就能跑这个特征也很适合本地部署。 虽说之前基于Qwen3.5-397B-A17B的Qwen3.5-Plus模型也早就上线了百炼了,性能能和Gemini 3掰手腕,但API价格只有它的5%。这回给开发者送上了Qwen3.5-Flash,支持1M长的上下文还带内置工具调用。这次百炼不光把托管模型给了大家看,连基座模型Qwen3.5-35B-A3B也一并开源了。 这事儿在全球AI社区里闹得挺热闹,有开发者觉得这能让机器人产业的VLA模型发展得更快点。毕竟除夕夜那个Qwen3.5-397B-A17B都已经在Hugging Face登顶了呢。 截至目前为止呢?阿里这回的开源阵容真的是相当硬气。他们家已经累计开源了超过400个千问模型了,全球下载量突破了10亿次。衍生出来的模型数都超过了20万个,千问稳稳地坐在全球第一开源模型的位置上。