
在AI编程工具全面渗透产品开发流程的今天,Token已成为衡量开发成本的核心“货币”。 开发者们逐渐意识到:Token的消耗不仅是技术问题,更是一门需要精细化运营的“经济学”。从Claude Code用户反馈的“80%成本浪费在冗余上下文”,到Cursor开发者因频繁超限被迫中断任务的无奈,Token管理已成为提升效率与控制成本的关键战场。
特别是年初爆火的OpenClaw(原Clawdbot、Moltbot),国内外不少用户都体验过“一句话烧掉几十万Token”的冲击。更极端的案例是,有用户在后台运行OpenClaw,仅用廉价模型就在一夜之间消耗了数千万Token。
面对如此惊人的烧钱速度,不少人对 OpenClaw 的实用性产生了质疑,甚至认为它只是‘土豪’的工具。但事实并非如此——这并非工具的缺陷,而是策略的缺失。只要掌握正确的配置逻辑与交互习惯,你完全有能力将 Token 消耗压缩。让 OpenClaw 从吞噬预算的‘吞金兽’,转变为高性价比的生产力伙伴。
然而,传统的“省Token”方法往往停留在碎片化技巧层面——例如关闭历史记录、简化提示词等。这些手段虽有效,却难以系统化解决复杂场景下的资源浪费问题。我们基于腾讯云CodeBuddy的深度实践表明,真正的Token优化需要从“被动压缩”转向“主动设计”。
本文将从多个维度,结合CodeBuddy的核心功能与真实案例,揭示如何构建可持续的Token节省体系。以下实践方法均基于笔者在CodeBuddy上的千小时级使用经验沉淀,涵盖从个人开发到团队协作的完整场景。
先回顾下,为什么你的 Agent 越用越贵?
大家在使用 AI code工具 (GPT-5.2 等高级模型) 时,可能都有过这样的体验:刚开始对话时响应很快,费用也很低;但随着需求不断深入,对话轮次增加,不仅生成速度变慢,Token 消耗更是呈指数级爆炸,成本直线上涨。
在开始省钱之前,我们需要先搞清楚钱到底花哪儿了。
1. 上下文的“滚雪球”效应(Input Token)大模型是无状态的。为了让它记住你 5 分钟前说的话,系统必须把之前的对话历史、引用的代码文件、系统提示词全部打包,作为每一次的新 Input 发送给模型。
2. “输出”比“输入”贵得多(Output Token)在大多数高级模型的计费策略中,Output Token(生成内容)的价格通常是 Input Token(阅读内容)的 3-4 倍。
基于上述原理,我们的省钱策略可以概括为三个维度:
理解了这些底层逻辑,我们就不再是盲目地“省钱”,而是科学地“提效”。接下来,我将结合 Codebuddy 的具体功能,把上述思路拆解为 6 个可直接落地的实战技巧。我们将按照“事前配置 -> 需求沟通 -> 执行过程”的工作流顺序,手把手教你如何把每一分钱都花在刀刃上。 首先,让我们从最容易被忽视、但单价最昂贵的“输出端”控制开始。
痛点: 大家可能都遇到过,刚开始用 AI 时,让它写个功能,它会“热心”地附赠一堆注释、文档、测试用例,甚至把没改的代码也重新发一遍。这些对我们来说往往是无效信息,纯属白白烧掉 Token。
对策: 我们可以把“硬性要求”写入 Rules 中,建立防御边界。
举个例子(可直接复用):
输出规则(核心):
“思维链”机制 (Chain of Thought) 大模型处理复杂逻辑时需要“打草稿”。让它先简述思路或编写注释,能激活推理过程,显著提高代码准确率。 结论: 这就是为什么要分场景——复杂任务靠解释(注释)保质量,简单任务靠直给省成本。
执行原则 (Execution Principles)

操作提示: 如图所示(这里及后续图以Codebuddy为例),在 Rules 设置中添加Project rule 然后粘贴上述内容。Rules 会在每次对话时自动带入,所以内容要字字珠玑,只写必要的。过长的 Rules 反而会干扰模型,导致幻觉。
提示词设计 (Prompt Engineering)
痛点: 很多时候我们习惯像聊天一样,“帮我写个新页面”。结果 AI 写出来的缺胳膊少腿,你再补充,它再改,反复拉扯。这种“挤牙膏”式的对话,会让 AI 反复生成代码,Token 消耗呈指数级增长。
对策: 对话尽量一次性把要求、边界条件、参考范例说清楚。现在的大模型很“听话”,你后续纠正它,它容易陷入自我怀疑,导致越改越乱。
技巧: 少说“不要做什么”,多说“要怎么做”,并给出正确示范。
举个例子(全量 Prompt):
生成一个新的全局配置页面:
RouteWrapper 中的 xxx 页面。模块路由参考 src/pages/[ModuleName]/index.tsx。xxxx,布局采用 MainLayout(参考 xxx 页面)。多 Tabs 参考 MainTabs。useTeaForm,列表用 useAdvanceTable。技术栈:TEA Component, React。AccessActionController。
建议:如果没有现成参考,就必须自己写清楚。为了偷懒,可以把这些常用的技术栈规范直接放入 Rules 中或者Memory。
Tips: 由于大模型训练数据大多是英文,所以在提示词设计时,对于专有的技术名词要用英文(例如:防抖函数用debounce function, 依赖注入用Dependency Injection),而复杂逻辑解释可继续用中文。
痛点: 需求发给 AI 后,如果它理解偏了,生成了一大堆错误代码,不仅浪费 Token 和时间,最可怕的是可能会覆盖你工作区里还没提交的代码(Git 暂存区代码丢失惨案)。
对策: 先对齐方案,再动手写代码。 让 AI 先用自然语言描述它的修改计划、涉及文件、核心逻辑。你确认无误后,再让它生成代码。
真实案例:
有一次需求涉及 goosefsx 和 goosefs 两个关键词。我以为说清楚了,直接让 AI 执行。结果它把两者混淆了,把全局多个模块改得面目全非。最后不仅消耗了大量 Token,我还得花时间去对比代码回滚。
大模型处理长文本时,偶尔会把相似词当成“错别字”自动纠正。加上 Rules、Memory 等隐性上下文的影响,输出结果很难百分百可控。
结论: 磨刀不误砍柴工,确认方案再执行是省钱又省心的关键。
4.1 手动控制上下文
技巧: 改哪里,选哪里。 不要让 AI 扫描整个项目。上一轮生成的代码如果有问题,手动选中有问题的代码块或文件,告诉它“这里不对”。这样能避免它读取无关引用,既省 Token 又能提高准确率。
Command+L 添加引用;
或者使用 @Files 指定文件。

4.2 合理使用多对话框
技巧: 专人专事,用完即走。
可能有一些人的使用习惯是永远在一个对话框里面跟AI聊天,哪怕是不同的需求也是这样处理。不要把 AI 当成一个永远不关机的聊天窗口。上下文越长,Token 越贵,干扰越多。
4.3 压缩上下文
如果真的有一个需求特别大,无法做拆分,经过了很多轮对话,我们可以使用压缩上下文的功能。每个模型可能具体的说法不同。这里可以先问模型要一个“总结并压缩上下文”的 Prompt。

技巧: 在 Codebuddy 设置里新建指令 /compact,内容设为“总结当前进度,压缩上下文”。

操作: 当对话过长时,执行一下,让 AI 忘掉中间的废话,只记住结论。

4.4 清空上下文
技巧: 及时止损。
如果同一个对话里内容太杂,AI 开始“左右互搏”、逻辑混乱,千万别试图去纠正它(越纠正越乱,越乱越费钱)。直接清空上下文或新建对话,重新开始最省钱。

4.5 按需加载上下文 (Agent Skills)
术业有专攻,不要让大模型“大包大揽”。
4.5.1 什么是 Agent Skills?
通俗理解,如果把大模型比作一个全科医生,那么 Skills 就是专科医疗包。
4.5.2 为什么要按需加载?
在传统的 Agent 开发中,我们往往习惯把所有的规范、文档、注意事项一股脑塞进 System Prompt(系统提示词)里。这会导致两个严重问题:
按需加载的原理就是:平时不加载,用时才调用。 只有当 Agent 识别到你正在处理“Git 冲突”时,它才会把“Git 冲突解决 Skills”里的上下文动态注入到对话中。处理完后,这部分上下文不会污染后续的通用对话。
4.5.3 怎么操作与编写?
第一步:识别场景 不要把所有东西都做成 Skills。只有那些流程复杂、规则繁琐、且不是每次对话都需要的场景,才适合封装成 Skills。
举例:下面是一个定制功能代码分支的时如何处理代码冲突的skills。

第二步:利用大模型生成 Skills
手写 Skills 既累又容易出错。最高效的方式是把你的需求描述给大模型,让它生成符合 Codebuddy 标准的 Skills 配置。
Prompt 示例:
“我需要一个专门解决 Git 代码冲突的 Skills。请帮我生成一个 Codebuddy 格式的 Skills 配置。根据当前工作区冲突的文件,分析都有哪些种类的冲突,分别给出解决方案。
接下来就可以根据类型完善对应的方案,然后让大模型去更新SKILLS。
第三步:配置 Skills (以 Git 冲突解决为例)
以下是一个此冲突解决skills的文件结构

注意: SKILL要大写。配置好之后,就可以在Codebuddy的设置中看到此SKILLS。

Skills内容结构通常包含 Metadata(元数据) 和 Instructions(指令)。
# Metadata (核心:定义 Agent 如何识别并激活该 Skill)
---
name: GitConflictResolver
description: 专门用于处理代码合并时的 Git 冲突解决。
triggers: - "git conflict" - "merge conflict" - "<<<<<<< HEAD" - "解决冲突"
globs:
- "**/*.tsx"
- "**/*.ts"
alwaysApply: false
when:
gitBranch: ".*tce.*"
---
# Instructions (核心:只有激活时才会加载的上下文)
---
## 冲突类型与解决原则
### 类型 1:isTCE 导入冲突
**特征**:TCE 和公有云都从 `@src/constants` 导入常量,但 TCE 额外需要 `isTCE`,导致合并时 import 冲突。
**解决原则**:
- **TCE 分支**:将 `isTCE` 的导入路径改为具体文件 `@src/constants/common`
- **公有云分支**:其它变量继续从 `@src/constants` 导入
- 这样以后合并时就不会再冲突
**实际案例**:
```typescript
// ❌ 合并冲突:TCE 和公有云都从同一路径导入
// TCE:
import { IS_INTL, isTCE } from '@src/constants';
// 公有云:
import { DEFAULT_WORKSPACE_ID, IS_INTL, WORKSPACE_KEY } from '@src/constants';
// ✅ 修复:TCE 将 isTCE 改为从具体路径导入
import { DEFAULT_WORKSPACE_ID, IS_INTL, WORKSPACE_KEY } from '@src/constants';
import { isTCE } from '@src/constants/common';
// 公有云继续从 @src/constants 导入,互不干扰
### 类型 2:TCE 工具函数导入冲突
### 类型 3:API 调用被替换
### 类型 4:配置/常量被修改
### 类型 .......
.......
---4.5.4 对比
<<<<<<< HEAD 的代码发给 Agent 时,它自动识别 Trigger,瞬间加载“专家模式”。总结: 利用 Skills 进行分治(Divide and Conquer),是降低 Agent 长期运行成本、提升专业任务准确率的最佳工程化实践。
理念: 杀鸡焉用牛刀。
操作: 虽然 Codebuddy 暂时没有 Cursor 那样的自动切换,但我们可以手动控制。可以告诉高级模型,把涉及到接口定义,类型定义,工具函数,等简单需求拆分出来,然后手动选择免费模型实现。剩余的复制需求交给高级模型实现。
原理:GPT-5.2 等模型支持 Prompt Caching。如果你的 System Prompt、Rules 和基础代码库上下文(Context)是固定的,且放在 Prompt 的前缀部分,API 厂商会缓存这部分内容。
省钱点:缓存命中的 Token 价格通常只有写入价格的 1/10。
操作:确保 Rules 和常用 Reference Files 的内容和顺序保持不变,尽量放在对话的最前面,这样能最大程度触发缓存命中。
如下图所示,在对话最开始手动引入rules,和files,再开始其他提示词。

通过上述一套“组合拳”,我们可以在不降低代码质量的前提下,显著降低 Token 消耗。当然,这些节省技巧也具备普适性——从AI内容创作的“精准表达少冗余”、数据分析的“多维度指标”、到咨询服务“精准理解回答”,实现降本与提质的双重效益。
优化前后的典型对比:
维度 | 优化前(粗放模式) | 优化后(精细模式) | 预期收益 |
|---|---|---|---|
上下文 | 全局扫描,动辄50k+token | 手动引用+及时压缩,控制在10k内 | Input成本降低60%-80% |
输出 | 包含大量解释、文档和未修改代码 | 仅输出Diff代码和关注注释 | Output成本降低50%+ |
准确率 | 上下文污染导致幻觉,反复修改 | 专人专事(skills),方案先行 | 减少返工带来的隐形浪费 |
一句话心法: 把 AI 当作按字数收费的顶级外包专家,需求给准、资料给对、废话不说。
你学会了吗?
围绕 OpenClaw 调用需求,腾讯云面向开发者提供“高性能大模型 API”服务,并配套超低折扣福利,助力开发者低门槛构建专属 AI Agent。
点击了解:OpenClaw玩家专属福利!腾讯云上线大模型服务“全家桶”

腾讯云吴运声:构建实用好用的企业级智能体,让AI人人可用 | 腾讯云吴永坚:「CB联动」,打造智能体时代“能力基座”| 腾讯公布新战略:全面开放「好用的AI」| 腾讯云ASR+混元翻译,助力QQ浏览器「实时字幕」更快更准|国家级认可!腾讯云智能体开发核心能力领跑行业 |2025WAIC丨腾讯云副总裁吴运声:把AI变成全新生产力 | 腾讯云吴运声:加速AI原生应用落地,让技术创新转化为实际生产力 | 别再说 OCR 不行了!!!| 国内首批!腾讯云慧眼荣获 PIA二星+ 认证 | 腾讯混元图像3.0上线LiblibAI,为千万创意工作者创作加速 |混元生图3.0上线腾讯云:修图指哪改哪,编辑精准可控 | OpenClaw玩家专属福利!腾讯云上线大模型服务“全家桶”