Anthropic объяснила падение качества в Claude Code

от автора

Компания разобрала, почему в марте–апреле пользователи заметили деградацию Claude Code, а также Agent SDK и Cowork. Причина оказалась не в одной ошибке, а в наложении сразу трёх изменений.

Что пошло не так?

Первое — снижение глубины reasoning. 4 марта дефолтный режим «мышления» урезали с high до medium, чтобы ускорить ответы. В итоге модель стала меньше анализировать и чаще ошибаться. Откат сделали только 7 апреля.

Второе — баг в кэшировании. В длинных сессиях система должна была разово очищать старый контекст. Но из-за ошибки она затирала историю рассуждений при каждом новом запросе. Модель буквально теряла нить: повторялась, путалась и хуже работала с инструментами. Исправили 10 апреля.

Третье — ограничение длины ответа. Изменение системного промпта с жёстким лимитом на ответ ударило по генерации кода. Модель просто не успевала дописывать решения. Этот фикс откатили 20 апреля.

Что в итоге?

Все исправления вошли в релиз v2.1.116. Anthropic:

• восстановила качество работы

• обнулила лимиты использования для пользователей

• пообещала усилить тестирование системных промптов

• перевести сотрудников с внутренних сборок на публичные

Важный момент — API это не затронуло, проблема была именно в пользовательских инструментах.


Источник

ссылка на оригинал статьи https://habr.com/ru/articles/1028460/