本文针对使用Claude或小龙虾等AI工具时token消耗过大的问题提出了一系列降本增效的方法。核心策略包括理解计费逻辑并优化对话长度通过查账掌握消耗情况对AI进行“记忆断舍离”精简输入改掉“微信式聊天”习惯打包问题关闭闲置工具阻断死循环实施“专人专岗”策略模型降级尽量使用订阅模式。通过这些方法用户可将token消耗大幅降低。现在大家用claude 或者小龙虾干活确实好用但是架不住token花销大啊。很多人一上来就把整个项目扔给 AI结果跑个任务动辄几万、几十万的 Token一天烧掉几十上百美金都不夸张。小北我之前claude 被封于是不得不转中转采用openrout尼玛5个小时莫名其妙烧了110美金你看稍微不注意成本搜一下就上来了所以在商业世界里控制不住成本的效率都是耍流氓。因为走了很多坑所以写这篇文章让你避免太快的烧钱控制的好至少可以把你的 Token 消耗硬生生砍掉 90%不废话了我们开始。01计费的底层逻辑是什么在讲方法之前先搞懂计费的底层商业逻辑。现在的情况是大模型是个没有长期记性的复读机。当你跟 AI 进行多轮长对话时它的计费不是线性的而是指数级增长的。什么意思你发第30条消息时它不仅要读你这句新话还要把你前面的29条聊天记录、系统提示词、加载的工具全部重新读一遍。据统计在长对话中高达 98.5% 的 Token 都被浪费在了重读历史记录上我举个例子啊这就像你招了个新员工每次给他派新活儿都得把公司十年的章程和会议记录重新给他念一遍你说这沟通成本能不贵吗所以搞懂了这个逻辑我们的核心策略就出来了把输入变短、变干净、把活儿分包。02查账是降本的第一步大多数人烧钱是因为对消耗纯属盲人摸象每天都在为未知买单。所以第一步我觉得要做到可以随时查账心中有数在终端里如使用 Claude Code 或小龙虾时随时跑一下/context和/cost指令。• /context — 查看当前上下文占用情况• /cost — 查看当前花费金额这就像拍 X 光一样精准透视你现在的话题到底占了多少无用内存当前确切花了多少钱。让 Agent 出体检报告你甚至可以直接让主 Agent 给你出一份成本体检报告“帮我分析当前的成本消耗揪出耗能大户”。找找是哪个文件占据了巨大空间或者是哪个高频轮询导致消耗翻倍一定要及时的找出来。大家看平常这样问都是可以排除掉那些消耗大户的。03方法二给 AI 的记忆断舍离方法二的核心是搞好上下文卫生给 AI 的记忆断舍离。不要让 AI 的脑子塞满垃圾信息精简输入是降本的第一步。物理隔离每 20 条消息强制重转既然记忆越来越贵那就果断清除如果在一个复杂任务里聊了 15-20 轮立刻让 AI “总结刚才所有的进度和核心代码”你把总结复制下来/clear清空会话把总结粘贴进新对话里。用干净的脑子做新任务效率高还便宜几十倍。换任务时更要果断清空对话记录在一个旧的长会话里继续聊比开一个新会话要贵几十倍。过滤终端废话当你让 AI 跑代码测试比如git status或cargo test时终端经常会吐出几万字的日志。AI 看这些就是浪费钱强烈建议装个叫RTK (Rust Token Killer)的小工具把报错里的空行和废话过滤掉再喂给 AI终端消耗最高能省下 90%。具体地址https://github.com/rtk-ai/rtk精简系统说明书你的.md说明文件千万别写成大百科全书尽量控制在 200 行以内把它当成索引目录来用告诉 AI 东西在哪而不是全抄在里面。04方法三改掉微信式聊天的坏习惯很多人用 AI 的方式跟发微信语音一样——想到一句发一句结果每发一条AI 就要把所有历史重新嚼一遍。这种方法太消耗无意义的token了**错误做法**发现 AI 写错了你跟发微信一样连弹“不对”、“我指的是上面第二段”……每发一条它就要把所有历史重新嚼一遍。**正确做法**回到它出错的那条提示词直接点击编辑修改然后重新生成这样旧对话会被覆盖历史消息不会无限叠加。还有下面的方法也是错的错误做法“帮我总结文章” — AI 回一句“再给个标题” — AI 又回一句“列出三个要点” — AI 再回一句正确做法直接说“总结文章列出三个要点并拟定一个标题”。你看一句话干完三件事立省 2 倍 Token05方法四关闭闲置工具关闭闲置工具砍掉隐形账单工具和插件的说明书是非常昂贵的隐形账单。关闭闲置 MCP 与剔除默认 Prompt 文件你每开启一个 MCP Server它每次对话都会把所有的工具定义加载进上下文单个 Server 每条消息可能就会吃掉 18,000 个 Token。强烈建议在每次会话开始时断开不需要的 MCP能用 CLI命令行工具解决的就不要用 MCP例如用 飞书的 CLI 代替其 MCP 插件既快又便宜OpenClaw 在初始化时默认会生成agent.md、user.md等多达 7 个文件哪怕你不说话这些默认文件和内置 Tool 也会占用约 6k Token。如果你的任务很简单直接清空这些文件的内容或者在配置中设置不创建它们开启 Plan Mode 与阻断死循环最大的 Token 浪费往往来源于 AI 走错方向或陷入改 Bug 的死循环。把95% 置信度规则写入你的系统说明书中命令 AI “在对需要构建的内容达到 95% 的信心之前不要做任何修改必须不断向我提问直到达到该信心水平”不要让 AI 盲跑。如果你发现 AI 陷入了不断重读相同文件、反复报错的死循环中直接打断它据统计在错误的循环中80% 的 Token 都在产生零价值利用错峰出行压榨限额如果你使用的是大厂官方提供的包月或限额套餐要注意平台有高峰期与非高峰期的算力倾斜。高峰期如美东时间工作日早 8 点到下午 2 点你的配额会消耗得极快。你应该把极其消耗 Token 的大重构、多 Agent 复杂协作任务专门安排在非高峰期下午、晚上、周末运行。06方法五专人专岗专人专岗杀鸡绝不用牛刀这就比一个聪明的土老板绝不会让年薪百万的 CEO 去扫地。你的任务也是不要什么任务都用最好的大模型Claude Opus来处理这非常不划算。给不同的 Agent 划定独立工作空间不要用一个全能 Agent 干所有事。建立专门的写文章 Agent、“写代码 Agent”。让他们有各自独立的记忆和工作空间互相不污染这样加载的上下文就会大幅减少。模型降级策略复杂的架构设计用最贵的旗舰模型如 Claude Opus / GPT-4o简单的数据整理、写前端用轻量模型如 Haiku / Gemini Flash / 甚至国产模型。用本地免费模型跑心跳很多 Agent 有心跳机制定时唤醒检查任务有没有做完。这种每几分钟就要循环一次的打杂活千万别用云端大模型直接在本地跑一个免费的开源小模型如 Ollama来做触发器能省下巨额的轮询费用。07方法六尽量用订阅模式如果你是重度使用者坚决不要用传统的 API 按 Token 扣费模式榨干订阅价值OAuth 接入如果你已经购买了 ChatGPT Plus、Claude Pro 或 Gemini Advanced 的 20 美元包月服务可以通过 OAuth 认证等方式直接将这些套餐接入到你的本地智能体中不再额外产生 API Token 费用。当然现在 Claude 不允许使用订阅的服务来接入 OpenClaw。人手一个 Coding Plan包月套餐很多大厂现在推出了专门针对写代码工具的 Coding Plan包月流量套餐。比如几十块钱人民币就能换取几千次的请求额度。折算下来单价只有普通 API 的五分之一甚至十分之一。之前小北买了一个月7块钱后面升级了最高的pro一个月也才200人民币还有8种模型随便切换总结下省token的方法有•查账用 /context、/cost 随时体检心中有数•上下文卫生20 条消息强制转生、过滤终端废话、精简 System Prompt•改掉坏习惯用编辑键、问题打包发•砍掉隐形账单关闭闲置 MCP、阻断死循环、错峰出行•专人专岗独立工作空间、模型降级、本地跑心跳•批发计费OAuth 接入订阅、Coding Plan 包月AI 工具越来越强但如果我们不理解这背后的运行逻辑只会被算法割了韭菜把上述这些方法习惯刻进你的操作本能里无论是用 Claude、OpenClaw 还是任意 AI 平台你都能用最低的成本撬动极高的生产力。最近两年大模型发展很迅速在理论研究方面得到很大的拓展基础模型的能力也取得重大突破大模型现在正在积极探索落地的方向如果与各行各业结合起来是未来落地的一个重大研究方向大模型应用工程师年包50w属于中等水平如果想要入门大模型那现在正是最佳时机2025年Agent的元年2026年将会百花齐放相应的应用将覆盖文本视频语音图像等全模态如果你对AI大模型入门感兴趣那么你需要的话可以点击这里大模型重磅福利入门进阶全套104G学习资源包免费分享扫描下方csdn官方合作二维码获取哦给大家推荐一个大模型应用学习路线这个学习路线的具体内容如下第一节提示词工程提示词是用于与AI模型沟通交流的这一部分主要介绍基本概念和相应的实践高级的提示词工程来实现模型最佳效果以现实案例为基础进行案例讲解在企业中除了微调之外最喜欢的就是用提示词工程技术来实现模型性能的提升第二节检索增强生成RAG可能大家经常会看见RAG这个名词这个就是将向量数据库与大模型结合的技术通过外部知识来增强改进提升大模型的回答结果这一部分主要介绍RAG架构与组件从零开始搭建RAG系统生成部署RAG性能优化等第三节微调预训练之后的模型想要在具体任务上进行适配那就需要通过微调来提升模型的性能能满足定制化的需求这一部分主要介绍微调的基础模型适配技术最佳实践的案例以及资源优化等内容第四节模型部署想要把预训练或者微调之后的模型应用于生产实践那就需要部署模型部署分为云端部署和本地部署部署的过程中需要考虑硬件支持服务器性能以及对性能进行优化使用过程中的监控维护等第五节人工智能系统和项目这一部分主要介绍自主人工智能系统包括代理框架决策框架多智能体系统以及实际应用然后通过实践项目应用前面学习到的知识包括端到端的实现行业相关情景等学完上面的大模型应用技术就可以去做一些开源的项目大模型领域现在非常注重项目的落地后续可以学习一些Agent框架等内容上面的资料做了一些整理有需要的同学可以下方添加二维码获取仅供学习使用