Claude Opus“变蠢”推理深度下降67%最近越来越多用户感觉Claude Opus不再像以前那样“聪明”。它回答更快了但推理更短像是跳过了本该认真完成的步骤变得敷衍。在Reddit的Claude社区里类似反馈密集出现有人说它不再仔细读代码有人说它更快给答案却常漏掉关键步骤。有人对Claude Code历史交互日志对比发现自2月更新以来其推理深度下降了67%。敷衍背后是优化还是另有隐情Claude Code开发负责人Boris解释这些变化源于系统层调整如工具调用方式、推理策略和资源分配机制的变化并非模型本身能力下降。Anthropic引入“自适应推理”机制让模型根据任务复杂度动态决定推理使用量。但从用户体验看效率优化和能力削弱并无区别用户感受到的是敷衍。同时Claude Mythos Preview被称为“能力跃迁的一代”却限制性提供给少数机构。这让不少用户猜测Anthropic是把旧模型削了来抬新模型。模型不稳定用户面临艰难选择其实早在2023年GPT - 4就出现过不同时间表现差异大的情况。在AI行业优先优化新一代模型旧模型被边缘化是常态。但对用户来说最不满的是模型的“不稳定”。模型在无提示、无版本说明、无边界的情况下变化用户不知何时变、变了什么也不知是否影响自己的工作。此时新模型摆在面前用户似乎只能被旧模型的变化推向新模型即便新模型未来也可能重蹈覆辙。编辑观点Claude Opus的变化引发用户不满背后或是资源倾斜的工程取舍。模型稳定性对用户至关重要若不能平衡新老模型发展可能会流失用户。