本文针对 Claude Code 用户遇到的模型降智和 Token 消耗过快问题,提供了一套详细的本地配置文件修改方案和量化诊断指标。
📝 详细摘要
文章针对 Anthropic 新推出的 Claude Routines 功能后,用户普遍反映的 Opus 4.6 模型变笨和 Token 消耗过快的问题,提供了一套实践性的解决方案。作者通过修改本地 Claude Code 的 settings.json 配置文件,给出了具体的参数设置,包括固定思考预算 (MAX_THINKING_TOKENS)、禁用自适应思考 (CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING)、调整上下文处理策略等,旨在缓解模型降智。同时,文章还指出了 CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 设置会大幅缩短上下文缓存时间的“巨坑”。此外,作者分享了量化判断模型是否降智的三个指标(读改比、思考深度、中断频率)以及一个外部监测网站,并给出了节省 Token 的使用习惯建议。
💡 主要观点
-
通过修改本地配置文件可强制固定 Claude Code 的思考预算,缓解动态降智。
设置 effortLevel: high/max、CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING: 1 和 MAX_THINKING_TOKENS 上限,能阻止模型为节省成本而自动降低推理深度。
CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 设置的副作用,它会将上下文缓存时间从一小时缩短至五分钟。
此设置本意为保护隐私,但会严重损害用户体验,因为有效的上下文缓存可以大幅减少重复加载系统提示和项目记忆所消耗的 Token。
💬 文章金句
- 只要设置了 CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1,订阅用户的一小时缓存(上下文有效时间)就会被砍到五分钟,大亏,要知道只要缓存还有效,对话的上下文就基本不耗额度。
- 很多人都统计过,每新开一次对话,就消耗 4 到 6 万个 Token,拿去加载系统提示,项目记忆和各种插件。
- 正常是大量读取上下文再修改,比例在 6.6 比 1。降智的是看一眼就改,读改比降到 2 比 1。
- 在 Plan 模式下,正常思考过程的字符数大概在 2200 个 token,降智后会跌到 600。
📊 文章信息
AI 初评:84
来源:卡尔的AI沃茨
作者:卡尔的AI沃茨
分类:人工智能
语言:中文
阅读时间:5 分钟
字数:1056
标签: Claude Code, AI 编程助手, 模型降智, Token 优化, 配置调优