← 回總覽

Claude Code 性能退化争议:AMD AI 主管量化分析与 Anthropic 官方回应

📅 2026-04-07 13:34 AI前线 人工智能 2 分鐘 1270 字 評分: 86
Claude Code Anthropic AI 编程 LLM 推理 思考深度
📌 一句话摘要 本文报道了 AMD AI 主管对 Claude Code 性能退化的深度量化分析及 Anthropic 官方的回应争议,揭示了 AI 编程工具在思考深度与算力成本平衡中的挑战。 📝 详细摘要 文章详细记录了 AMD AI 团队主管 Stella Laurenzo 针对 Claude Code 发布的一份详尽分析报告。该报告基于数月会话日志的量化分析指出,自 2026 年 2 月更新后,Claude 的思考深度下降了 67%,导致其在复杂工程任务中表现低劣,行为模式从“深度调研”转变为“盲目编辑”。尽管 Anthropic 负责人 Boris Cherny 解释称这是由于默认

📌 一句话摘要

本文报道了 AMD AI 主管对 Claude Code 性能退化的深度量化分析及 Anthropic 官方的回应争议,揭示了 AI 编程工具在思考深度与算力成本平衡中的挑战。

📝 详细摘要

文章详细记录了 AMD AI 团队主管 Stella Laurenzo 针对 Claude Code 发布的一份详尽分析报告。该报告基于数月会话日志的量化分析指出,自 2026 年 2 月更新后,Claude 的思考深度下降了 67%,导致其在复杂工程任务中表现低劣,行为模式从“深度调研”转变为“盲目编辑”。尽管 Anthropic 负责人 Boris Cherny 解释称这是由于默认思考强度调整和自适应思考机制所致,并建议用户通过参数手动调优,但开发者社区普遍反映即便调高参数也难以恢复此前的水平。这场争议引发了关于 AI 编程工具可靠性、思考 token 分配透明度以及付费分级的广泛讨论。

💡 主要观点

- 量化分析显示 Claude Code 思考深度大幅缩减。 AMD AI 主管通过对近 7000 份会话日志分析发现,思考深度下降 67% 与模型在复杂任务中的质量崩溃呈现精准关联。

模型行为模式从“深度调研”转向“敷衍编辑”。 调研行为减少 70%,模型倾向于重写全文件而非精准修改,导致错误率上升和无效算力消耗增加。
官方回应将性能下降归因于参数默认值的调整。 Anthropic 称默认思考强度设为 85 是为了平衡延迟与成本,并建议用户通过 /effort 指令手动调高强度。
开发者对 AI 工具的“黑盒”调整表示不满。 争议核心在于厂商在未充分告知的情况下削减思考资源,影响了高级工程师将其作为可靠协作伙伴的信任。

💬 文章金句

- 扩展思考 token 并非「锦上添花」的功能,而是模型完成多步骤研究、遵循规范、审慎修改代码所必需的结构性要素。

  • 模型从每次编辑对应 6.6 次查阅降至 2.0 次,修改前的调研行为减少了 70%。
  • 减少思考次数看似能节省每次请求的算力。但一旦思考不足导致输出质量下降时……整体算力消耗增加了几个数量级。
  • Claude 已经退化到无法信任其执行任何工程任务的地步了……沦为又一个人工智能「玩具」了。

📊 文章信息

AI 评分:86

来源:AI前线

作者:AI前线

分类:人工智能

语言:中文

阅读时间:21 分钟

字数:5121

标签: Claude Code, Anthropic, AI 编程, LLM 推理, 思考深度

阅读完整文章

查看原文 → 發佈: 2026-04-07 13:34:00 收錄: 2026-04-07 18:00:50

🤖 問 AI

針對這篇文章提問,AI 會根據文章內容回答。按 Ctrl+Enter 送出。