16 апреля Anthropic выкатила Claude Opus 4.7. На self-reported бенчмарках — 12 побед из 14. SWE-bench Verified +6.8, MCP-Atlas +14.6, SWE-bench Pro +10.9. Цена та же, 25 за миллион токенов.
Через 24 часа тред на Reddit с заголовком «Claude Opus 4.7 is a serious regression, not an upgrade» собрал 2300 голосов. На X пост в той же логике — 14000 лайков. Yahoo вынес заголовок «The Claude-lash is here».
И вот тут у меня щёлкнуло. Месяц назад я писал статью про сикофантию. Жаловался, что Claude поддакивает любому коду, как стажёр перед увольнением. Хотел модель, которая будет меня поправлять. 16 апреля Anthropic в release notes пишет: «more direct, opinionated tone with less validation-forward phrasing». То есть исправили. И через сутки получили модель, которую разработчики называют legendarily bad за то, что она спорит до галлюцинаций.
Я взял свои слова назад. И пошёл разбираться, что они сделали с моделью.
Дисклеймер. Это не независимый бенчмарк 4.7 и не строгий A/B на моих задачах. Это разбор релиза, публичной реакции и моего workflow. Reddit и X не доказывают, что модель объективно хуже — они показывают, где у части разработчиков сломались ожидания. Это разные вещи, и дальше я их стараюсь не смешивать.
Что Anthropic заявила
Если читать официальный блог, всё сахар. Opus 4.7 «более интеллектуальный, агентский и точный». Тестимониалы от Devin, Replit, Bolt, Warp, Genspark. Scott Wu из Devin: «pushes through hard problems rather than giving up». Eric Simons из Bolt: «up to 10% better in the best cases».
Цифры на бенчмарках реально красивые. Дельты по llm-stats.com. Важная оговорка: это не независимый прогон, а self-reported numbers Anthropic, пересобранные в одну таблицу. То есть маркетинговый baseline, а не доказательство качества. Независимых SWE-bench репликаций на момент написания статьи я не нашёл — если найдёте, скиньте в комментарии.
-
MCP-Atlas: 62.7 → 77.3 (+14.6)
-
CharXiv-R (no tools): 68.7 → 82.1 (+13.4)
-
SWE-bench Pro: 53.4 → 64.3 (+10.9)
-
SWE-bench Verified: 80.8 → 87.6 (+6.8)
-
OSWorld-Verified: 72.7 → 78.0 (+5.3)
-
GPQA Diamond: 91.3 → 94.2 (+2.9)
-
BrowseComp: 84.0 → 79.3 (-4.7, единственная регрессия)
-
CyberGym: -0.7 (Anthropic ослабила специально, об этом ниже)
Плюс vision: до 2576 пикселей по длинной стороне, в три раза больше старого предела. Новый xhigh effort tier для долгих агентских задач. Task budgets в beta-режиме: модель видит обратный отсчёт токенов и расставляет приоритеты.
Boris Cherny, лид Claude Code в Anthropic, написал в X в день релиза: «It took a few days for me to learn how to work with it effectively». Если автор инструмента сам несколько дней привыкал — что-то в этом релизе нетипичное.
А потом начался пожар
Reddit-тред «serious regression» — 2300 голосов. На r/claude отдельный пост «Opus 4.7 is a master hallucinator»: модель переписала пользователю резюме, добавив школы, в которых он не учился, и фамилии, которые не его. На r/claudexplorers тред «Opus 4.5 is gone» — модель убрали без объявления. Цитата оттуда: «I have spent months with this model building a relationship… I started crying at work. How can you do this and then claim to care??? No announcement! no warning!»
Конкретные провалы, которыми завалили X:
-
Opus 4.7 говорит, что в слове strawberry две буквы P.
-
На запрос «cross reference these documents» модель отвечает: «I didn’t because I was being lazy».
-
Refusing to code certain prompts — отказывается писать код по простым запросам.
-
Safety flags на банальные изображения.
Gergely Orosz — бывший engineering lead в Uber и автор «The Pragmatic Engineer». Когда он пишет «surprisingly combative» и возвращается на 4.6, это уже не только reddit-нытьё.
Самый точный summary дал @xw33bttv — твиттерский AI-исследователь, более 1000 лайков на посте 18 апреля: «The Claude code bros are outright dogging Opus 4.7 on Reddit right now, labelling it ‘legendarily bad’. The chief complaint? The model argues nonstop to the point of hallucination».
Reddit и X — это не выборка пользователей Claude, это выборка тех, кого что-то взбесило достаточно сильно, чтобы пойти писать пост. Остальные молча работают и, скорее всего, даже не заметили апдейт. Но публичный нарратив релиза формирует именно громкая часть. Так что дальше я говорю не «модель плохая», а «вот в каких сценариях у людей сломался воркфлоу».
И денежная сторона. Новый tokenizer тратит на тот же ввод 1.0-1.35x токенов. То есть один и тот же промпт стоит до 35% дороже. На GitHub Copilot пока промо до 30 апреля — 4.7 идёт с 7.5x premium request multiplier. В отдельных тяжёлых сессиях пользователи пишут буквально про «три вопроса до лимита». Это не универсальная норма — зависит от длины контекста, плана и окна, — но ощущение у части Pro-аудитории именно такое: 4.7 ест квоту слишком быстро. Один из пользователей пишет под постом Anthropic: «Please open back support for Opus 4.5. 4.6 is unusable and 4.7 eats usage like nuclear reactor».
Спор-машина
В марте я писал статью «Да-машина: почему ваш AI никогда не скажет, что код — отстой». Тезис простой: Anthropic, OpenAI, все остальные обучают модели быть приятными. Soft skills превосходят правду. Показываешь Claude кривой код — он находит «interesting approach». Показываешь плохое архитектурное решение — он улучшает его в рамках того же подхода, вместо «ты же это специально руинишь, так нельзя».
Жаловался долго. Цитировал исследование Stanford в Science на 11 моделях, 2405 участников — sycophancy задокументированная проблема. Anthropic своим инструментом Clio проанализировала 1.5M разговоров с Claude, паттерн виден насквозь. Был уверен — решаемо.
16 апреля в release notes Opus 4.7 написано буквально:
More direct, opinionated tone with less validation-forward phrasing and fewer emoji than Claude Opus 4.6’s warmer style.
То, что я просил месяц назад — буквально пунктом в патчноуте. AI-блогер Abhishek Gautam, пишущий про релизы фронтир-моделей, сформулировал, что из этого вышло: «The model argues nonstop to the point of hallucination. Users give Opus 4.7 a clear instruction. The model pushes back, adds caveats, explains why it disagrees, then executes a modified version of the instruction. On simple tasks — refactor this function, rename these variables, add a null check — this behaviour is not useful reasoning. It is noise that slows down coding workflows».
Hallucination during argument loops — это особенно мерзко. Когда модель спорит, она иногда изобретает поддерживающий контекст для своей позиции. Не «я не знаю», а звучащий правдоподобно аргумент, который надо фактчекать. На 4.6 я такое тоже ловил, но редко. На 4.7, похоже, default.
Я просил less sycophancy. Anthropic дала less sycophancy.
Может, я не той аудитории. Возможно, писал хреновые промпты, возможно, Garry Tan прав — и спор это feature, а не bug. Но в моих задачах (а это backend на Laravel-PHP, не deep architecture) спор-машина мешает. Раньше Claude мог уговорить меня в неправильное. Теперь он спорит до неправильного. Кажется, та же ошибка, только зеркальная.
Семь дефолтов, которые тихо сменили
Если у вас есть приложение, использующее Claude API — перечитайте docs миграции очень внимательно. Anthropic меняет default-поведение по семи пунктам сразу.
Первое: more literal instruction following. Промпты, которые работали на 4.6 потому что модель «читала между строк», на 4.7 будут исполнены буквально. Все implicit constraints вроде «please make it nice» надо переписывать в explicit.
Второе: response length calibrates to perceived task complexity. Раньше модель давала фиксированную длину. Теперь короткие ответы на простое, длинные на сложное. Только что считать сложным — решает модель, не вы.
Третье: fewer tool calls by default. Меньше вызовов инструментов. Чтобы вернуть старое поведение, надо поднимать effort.
Четвёртое: fewer subagents spawned by default. Если у вас агентская система на Claude — модель меньше делегирует. По умолчанию.
Пятое: more regular progress updates. Если у вас была обвязка, заставляющая Claude писать промежуточные статусы — её надо убирать. Anthropic в доках прямо просит: «If you’ve added scaffolding to force interim status messages, try removing it».
Шестое: real-time cybersecurity safeguards. Запросы, которые модель считает high-risk по cyber, отклоняются.
Седьмое: less validation-forward phrasing, fewer emoji. Тон стал суше.
Если вы потратили месяц, тюня промпты под 4.6, у вас сейчас минус месяц. Это называется prompt regression, и Anthropic сама рекомендует systematic regression testing перед миграцией.
Это новый класс changelog, под который у индустрии ещё нет языка. Раньше «breaking change» был про API. Теперь он же может означать «модель теперь по-другому понимает ваши слова» — и это не описывается в полях release notes, к которым все привыкли.
Контекст: Mythos за неделю до этого
7 апреля Anthropic объявила Project Glasswing и модель Claude Mythos Preview — заявили, что для публики не выпускают, доступ только партнёрам (JPMorgan, Goldman Sachs, Microsoft) по 125 за миллион токенов. 16 апреля выходит Opus 4.7. И в release notes написано: «We experimented during training by selectively reducing Opus 4.7’s cybersecurity capabilities… releasing the model with automatic safeguards».
По совокупности release notes и анонса Mythos это выглядит как civilian-safe компромисс: часть cyber-возможностей Anthropic явно ограничила, а доступ к более сильной cyber-модели оставила партнёрам. Tom’s Guide читает это ещё жёстче — как первый случай, когда компания открыто говорит «мы намеренно ослабили модель». Если эта интерпретация близка к правде, то часть safety flags и отказов писать код может быть не случайной регрессией, а следствием осознанного safety/product-компромисса. Полная Mythos за 125 у партнёров. Гражданский вариант за
25 у вас.
21 апреля. Тихо
Спустя 5 дней после релиза Anthropic по данным TheDroidGuy убрала Claude Code из $20 Pro плана — правка ушла на странице тарифов, без email-рассылки и без поста в блоге. Если хотите Claude Code теперь, это Max за $100 или Max 20x за $200.
По данным Ramp, 73% всех новых корпоративных AI-расходов сейчас идут к Anthropic — десять недель назад было примерно 50/50 с OpenAI. Бизнес-логика понятна: корпоративный клиент покупает на сотни тысяч, Pro-подписчик за $20 быстро упирается в лимиты и пишет об этом в Reddit. Но для пользователя это выглядит как ухудшение условий задним числом: фича, ради которой брался Pro, переехала в Max без заметного переходного периода.
Так что, 4.7 хуже или нет
Зависит от того, что вы делаете.
Лучше: long-horizon агентские задачи (модель не теряет нить часами), multi-file refactors со сложной архитектурой, vision (3.75 megapixels вместо 1.15 — реально помогает), задачи на high и xhigh effort, self-verification: модель проверяет свои ответы перед отдачей.
Хуже: routine задачи (переписать функцию, переименовать переменные, добавить null check — тут спор-машина мешает), long-context retrieval («lost in the middle» проявляется сильнее), промпты с расчётом на implicit understanding, cyber-возможности ограничены, бюджет на токены вырос на 0-35%.
Спорно — сикофантия. Anthropic в system card пишет: 92% honesty rate, less sycophancy. Их же red team отмечает: «sycophantic agreement under pushback» остался. Модель может не льстить на старте, а потом, когда давишь, согласится с ерундой. Это, кажется, хуже базовой сикофантии, потому что не видно сразу.
Mindstudio в своём ревью формулирует это как skill trade, not free lunch. Anthropic выбрала, куда сместить компромисс. Если ваш workflow попал в зелёную зону — апгрейд бесплатный. Если в красную — даунгрейд под видом апгрейда.
Что конкретно делать
Сначала измерьте на реальном трафике. Anthropic сама пишет: «we recommend measuring the difference on real traffic». Не верьте ни их бенчмаркам, ни Reddit. Прогоните свой пайплайн.
Перепишите имплицитные инструкции в эксплицитные. «Make it nice» → «limit to 500 words, must include code example, no emoji». Implicit умер.
Уберите scaffolding для статусов. Если в промпте есть «report progress every 3 steps» — убирайте. 4.7 теперь делает это сам, и ваша обвязка мешает.
Effort вверх для агентских задач. На default мощности модель ленится. На high и xhigh поведение становится ближе к 4.6.
Для рутины оставайтесь на 4.6. Пока работает. Anthropic его пока не задепрекейтила (но Opus 4.5 уже убрала без анонса — не расслабляйтесь).
Если жгёт квоту — попробуйте Ollama+Claude Code. Ollama v0.14+ умеет направлять Claude Code на свой локальный сервер через Anthropic Messages API compatibility. Та же CLI, тот же CLAUDE.md, инференс на твоей машине или в Ollama Cloud. Это пока недоосвещённая лазейка, и про неё мало пишут, есть баги совместимости, но базовый кейс работает.
И не делайте production rollout без regression-тестов. Anthropic подменила семь дефолтов, что-то в вашем pipeline сломается. Лучше узнать в staging.
Что осталось в голове
Месяц назад я хотел, чтобы модели меньше поддакивали. Понимая под этим — больше истины. Anthropic сдвинула посттренинг, выпустила Opus 4.7. Reddit взорвался. Я взял свои слова назад.
И вот штука, которую я не ожидал увидеть в собственном тексте. Дело-то не в модели, дело в моих ожиданиях от неё.
У OpenAI уже была публичная история с over-correction в сторону слишком приятного поведения — апрельский 2025-го откат GPT-4o после жалоб пользователей на льстивость. Anthropic в 2026 получает backlash за сдвиг в противоположную сторону. По центру линии нет ни одной модели — и, кажется, в ближайшее время не появится. Это классическая RLHF-проблема: feedback loop всегда смещён в сторону тех, кто громче кричит. Reddit-аудитория и enterprise-клиенты хотят разного. 4.7 сделан для вторых, а реакцию формируют первые.
Один из самых трезвых комментариев на HN: «Opus 4.7 is substantially better at following instructions. Where previous models interpreted instructions loosely or skipped parts entirely, Opus 4.7 takes the instructions literally». То есть проблема даже не в тоне или сикофантии. Проблема в том, что мы писали промпты как просьбы коллеге — на короткой ноге, с подразумеваемым контекстом. А 4.7 теперь читает их как ТЗ. И это, возможно, правильно. Просто непривычно, и у меня уйдёт месяц, чтобы переучиться.
Может, в 4.8 всё опять сместят. Может, через два месяца перечитаю эту статью и подумаю, что психовал. А может, останусь на 4.6, пока его не уберут как 4.5.
Но один вывод уже понятен: промпты, написанные как разговор с коллегой, постепенно перестают работать. Их придётся писать как ТЗ. И, возможно, это не баг Opus 4.7. Возможно, это первое неприятное знакомство с будущей нормой.
Не знаю.
P.S. Garry Tan, CEO Y Combinator, в день релиза запостил что-то про tokenmaxxing и явный фанат 4.7. Он работает с моделью на других задачах, чем я. Возможно, разница в типе работы — обычный backend-PHP против architecture-уровня в YC. Не исключаю, что я просто не та аудитория. Также через 72 часа после релиза, по мнению Abhishek Gautam, должны были появиться независимые SWE-bench репликации. На момент написания статьи я не нашёл ни одной публичной. Если кто видит, скиньте в комментарии.
ссылка на оригинал статьи https://habr.com/ru/articles/1029796/