
Anthropic объяснила, почему части пользователей Claude Code в последние недели казалось, что инструмент стал хуже писать и править код. В инженерном разборе компания пишет, что дело было не в самой модели, а в продуктовой обвязке вокруг нее: настройке глубины рассуждения (reasoning effort), работе с контекстом и системной инструкции. По версии Anthropic, изменения затронули Claude Code, Claude Agent SDK и Claude Cowork, но не API и не инфраструктуру инференса.
4 марта Anthropic переключила настройку рассуждения по умолчанию в Claude Code с high на medium, чтобы снизить задержки, расход токенов и число ситуаций, когда казалось, что интерфейс завис. Вскоре пользователи начали жаловаться, что Claude Code стал менее сообразительным. 7 апреля компания откатила решение: теперь Opus 4.7 по умолчанию работает на xhigh, а остальные модели — на high.
Вторая причина связана с очисткой старых блоков «мышления» после простоя сессии больше часа. Anthropic хотела убирать лишние рассуждения один раз, чтобы снижать задержку и расход токенов при возвращении к работе. Но из-за бага очистка запускалась снова на каждом следующем шаге. В результате Claude мог терять понимание того, почему раньше выбрал те или иные правки и вызовы инструментов: он забывал контекст, повторялся и хуже выбирал следующие действия.
Третья причина — инструкция отвечать короче. Anthropic пыталась уменьшить многословие Claude Code и добавила правило: между вызовами инструментов писать не длиннее 25 слов, а финальный ответ держать в пределах 100 слов, если задача не требует большего. Вместе с другими изменениями промпта это ударило по качеству работы с кодом: на одной из расширенных внутренних проверок компания увидела падение на 3% для Opus 4.6 и Opus 4.7. Инструкцию откатили 20 апреля; все три проблемы, по версии Anthropic, закрыты к версии v2.1.116.
Этот случай хорошо показывает хрупкость агентных ИИ-инструментов. Для пользователя все выглядит просто: «Claude стал хуже». Но на практике качество такого продукта зависит не только от весов модели, а от множества внешних решений — уровня рассуждения, кеша, управления контекстом, системных инструкций и интерфейсных компромиссов. Даже сильная модель в такой обвязке может начать вести себя как сломанный инструмент.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.
ссылка на оригинал статьи https://habr.com/ru/articles/1027712/