← 回總覽

可算有解决 Claude 降智和偷 Token 的神配置了

📅 2026-04-15 20:31 卡尔的AI沃茨 人工智能 2 分鐘 1624 字 評分: 84
Claude Code AI 编程助手 模型降智 Token 优化 配置调优
📌 一句话摘要 本文针对 Claude Code 用户遇到的模型降智和 Token 消耗过快问题,提供了一套详细的本地配置文件修改方案和量化诊断指标。 📝 详细摘要 文章针对 Anthropic 新推出的 Claude Routines 功能后,用户普遍反映的 Opus 4.6 模型变笨和 Token 消耗过快的问题,提供了一套实践性的解决方案。作者通过修改本地 Claude Code 的 `settings.json` 配置文件,给出了具体的参数设置,包括固定思考预算 (`MAX_THINKING_TOKENS`)、禁用自适应思考 (`CLAUDE_CODE_DISABLE_ADAPTI

📌 一句话摘要

本文针对 Claude Code 用户遇到的模型降智和 Token 消耗过快问题,提供了一套详细的本地配置文件修改方案和量化诊断指标。

📝 详细摘要

文章针对 Anthropic 新推出的 Claude Routines 功能后,用户普遍反映的 Opus 4.6 模型变笨和 Token 消耗过快的问题,提供了一套实践性的解决方案。作者通过修改本地 Claude Code 的 settings.json 配置文件,给出了具体的参数设置,包括固定思考预算 (MAX_THINKING_TOKENS)、禁用自适应思考 (CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING)、调整上下文处理策略等,旨在缓解模型降智。同时,文章还指出了 CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 设置会大幅缩短上下文缓存时间的“巨坑”。此外,作者分享了量化判断模型是否降智的三个指标(读改比、思考深度、中断频率)以及一个外部监测网站,并给出了节省 Token 的使用习惯建议。

💡 主要观点

- 通过修改本地配置文件可强制固定 Claude Code 的思考预算,缓解动态降智。 设置 effortLevel: high/maxCLAUDE_CODE_DISABLE_ADAPTIVE_THINKING: 1MAX_THINKING_TOKENS 上限,能阻止模型为节省成本而自动降低推理深度。

警惕 CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 设置的副作用,它会将上下文缓存时间从一小时缩短至五分钟。 此设置本意为保护隐私,但会严重损害用户体验,因为有效的上下文缓存可以大幅减少重复加载系统提示和项目记忆所消耗的 Token。
可通过读改比、思考深度、中断频率三个量化指标判断模型是否处于降智状态。 正常的读改比约为 6.6:1,Plan 模式思考深度约 2200 token;降智时读改比会降至 2:1,思考深度跌至 600 token,且未完成任务就提前询问的频率增加。
维持对话连续性而非频繁开启新对话,是节省 Token 的关键使用习惯。 每次新开对话会消耗 4-6 万 Token 用于加载系统提示和项目记忆,在同一任务下或一小时内保持对话可有效利用缓存,避免重复消耗。

💬 文章金句

- 只要设置了 CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1,订阅用户的一小时缓存(上下文有效时间)就会被砍到五分钟,大亏,要知道只要缓存还有效,对话的上下文就基本不耗额度。

  • 很多人都统计过,每新开一次对话,就消耗 4 到 6 万个 Token,拿去加载系统提示,项目记忆和各种插件。
  • 正常是大量读取上下文再修改,比例在 6.6 比 1。降智的是看一眼就改,读改比降到 2 比 1。
  • 在 Plan 模式下,正常思考过程的字符数大概在 2200 个 token,降智后会跌到 600。

📊 文章信息

AI 初评:84

来源:卡尔的AI沃茨

作者:卡尔的AI沃茨

分类:人工智能

语言:中文

阅读时间:5 分钟

字数:1056

标签: Claude Code, AI 编程助手, 模型降智, Token 优化, 配置调优

阅读完整文章

查看原文 → 發佈: 2026-04-15 20:31:00 收錄: 2026-04-16 00:00:05

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。