OpenClaw 的 Token 黑洞问题剖析:4 大罪魁祸首与消减花费的技巧。每次高 Token 消费并不是 Bug,是大量冗余信息导致的。它本质上是一个为大模型设计的自动化提示词框架,把多轮对话、任务拆解还有工具调用整合在一起。高 Token 消耗并不是代码问题,而是设计逻辑把大量无用文本输入进去,给模型增加了不必要的负担。以下是具体列出的 4 个主要因素。 1.1 冗长的模板:在输入一个指令时常常需要500 Token,而模型只需20%有效信息,剩下的80%被计费却没有推理作用。OpenClaw 为了满足各种场景而默认塞进很多固定模板:系统指令一直写到10步;反复说明 JSON 结构和参数解释;还有历史对话全量保留,就算用户重复上一轮也是一样。 1.2 上下文积累:每轮对话都把之前所有内容带给下一轮。虽然这能提升交互智能,但 Token 消耗却呈指数级增长,像滚雪球一样越积越大。 1.3 工具调用:调用外部 API 时把接口文档、日志和返回结果全部塞进提示词里。很多字段根本用不上。 1.4 文本预处理:输入模型的长文本不做摘要和关键词提取;中英文混排时没分词;格式符号如换行符、制表符还有分隔符都算在 Token 里。 为了解决这个问题,从模板到上下文进行全链路优化。 2.1 精简核心提示词模板:删除冗余指令保留关键规则。示例显示原来 500 Token 现在只需 100 Token。 2.2 优化上下文管理:设定 Token 上限阈值超过自动摘要,去除无效信息对话部分。 2.3 文本预处理在传入模型前先精简内容长度以及清除格式符号。 2.4 关闭不必要的模块功能以及增加 Token 预警功能。示例显示自然语言指令变成结构化格式后字数从150降到30。 总结起来就是保留最小有效信息量即可。