Опасный ИИ? Маркетинговый трюк? Или своеобразная «крыша»?

Чуть больше недели назад Anthropic представила миру свою модель Claude Mythos — и, надо сказать, у публики на этом месте буквально сорвало крышу. И понять почему нетрудно.
Mythos — это, по сути, кибербезопасностный бот: он умеет просматривать код, находить уязвимости и даже подбирать к ним эксплойты. Всего за несколько недель, как утверждают в Anthropic, Mythos обнаружил тысячи zero-day-уязвимостей во всех основных операционных системах и браузерах.
Разумеется, в самой Anthropic настолько обеспокоены последствиями возможного публичного доступа к такой модели — а также тем, что другие компании могут создать не менее опасные системы, — что пока запускают её лишь в формате preview-доступа: для исследователей, государственных структур и крупнейших разработчиков ПО, чтобы те успели подготовиться к надвигающейся волне кибератак, которую, по их словам, спровоцируют такие модели.
Но, будем откровенны, как и многие AI-бро, Anthropic давно заслужила репутацию компании, в которой маркетингового тумана зачастую больше, чем реальных шагов. Так что стоит спросить прямо: перед нами действительно та самая ИИ-армада, о которой нас предупреждали? Или это просто очередной рекламный спектакль?
Почему здесь стоит быть скептиками
Надо признать: момент, в который состоялся запуск Mythos, выглядит настолько удачно-случайным, что невольно вызывает серьёзные подозрения.
Всего несколько недель назад главный продукт компании — Claude Code — публично полоскали на всех углах. Директор AMD раскритиковал этот кодовый ассистент за то, что тот поглупел и обленился: он уже не справляется с задачами, в которых раньше чувствовал себя уверенно. Это можно объяснить и недавней внутренней запиской OpenAI, где говорится, что Anthropic упёрлась в нехватку вычислительных ресурсов, и сообщениями о том, что Claude регулярно переживает сбои, бьющие по качеству сервиса. Проще говоря, возможно, что Anthropic действительно пришлось «упростить» Claude, чтобы выдержать наплыв бывших пользователей OpenAI.
А потом случилось ещё и вот что: из-за того, что значительная часть обвязки Claude, по сути, была наскорую руку «навайб-кожена», исходный код утёк — и весь мир получил возможность заглянуть внутрь. Ирония, конечно, впечатляющая: компания, существование которой, по сути, невозможно без присвоения огромных массивов чужих защищённых авторским правом материалов — уступая в этом разве что OpenAI, — внезапно заявила, что утекший код является её интеллектуальной собственностью, и отправила порядка 8 000 жалоб по copyright, чтобы зачистить публикации.
С точки зрения этики, кибербезопасности и просто компетентности выглядит это, мягко говоря, не лучшим образом. Особенно если помнить, что к концу года компания собирается выходить на IPO.
И вот на этом фоне Anthropic вдруг заявляет, что создала невообразимо мощный ИИ, настолько опасный, что нам его нельзя даже толком попробовать — не говоря уже о том, чтобы независимо проверить заявленные возможности. Совпадение, конечно, удивительное.
Почти как если бы это был идеальный маркетинговый инструмент, чтобы утопить в шуме все проблемы и прессу, которая обрушилась на Anthropic за последний месяц.
Это, разумеется, не доказывает, что Mythos — исключительно липа. Но, по меньшей мере, говорит о том, что здесь необходима здоровая доза скепсиса.
И важно помнить: к скепсису призывают не только интернет-чудаки вроде меня. Сомнения в истории вокруг Mythos высказали влиятельные исследователи ИИ, отраслевые эксперты и даже инвесторы из Big Tech.
Нейробиолог и исследователь ИИ Гэри Маркус заявил, что риски Mythos раздуты, и добавил: «В некотором смысле у меня есть ощущение, что нас просто разыграли».
Янн Лекун, один из так называемых «крёстных отцов ИИ», вообще отмахнулся от Mythos, назвав всё это «чушью, порождённой самообманом», и отметил, что другие, более компактные модели уже умеют выполнять те же задачи.
Доктор Хайди Хлааф, главный научный сотрудник AI Now Institute, сказала, что заявление о Mythos построено на слишком расплывчатом языке и не содержит тех метрик, которые нужны для проверки заявлений Anthropic. Это заставило её усомниться, не было ли всё это задумано прежде всего для привлечения инвестиций — без излишнего контроля и неудобных вопросов.
Дэвид Сакс, возможно, один из самых одиозных представителей PayPal-мафии — а на мой взгляд, просто законченный кретин, но что куда важнее для нашего разговора, ещё и инвестор Big Tech, — заявил, что у Anthropic уже есть история использования «тактики запугивания» для разогрева хайпа, а значит, к их словам следует относиться с большой осторожностью.
Когда даже такие люди начинают предупреждать, что технологические заявления звучат чересчур раздутыми, это уже само по себе тревожный сигнал.
Иными словами, перед нами хор осведомлённых людей — с очень разными политическими и этическими взглядами, — которые в один голос говорят: с Mythos, возможно, всё не так, как кажется.
Нельзя не упомянуть и то, что независимый анализ эту точку зрения скорее поддержал. AISI — одна из организаций, получивших доступ к превью-версии Mythos и протестировавших её возможности. Да, они признали, что в части моделирования кибератак это шаг вперёд. Но одновременно подчеркнули: это не такой уж гигантский скачок, как пытается представить Anthropic.
И, наконец, в официальной истории Anthropic зияет одна особенно заметная дыра.
Если Mythos настолько выдающийся, почему его не использовали, чтобы предотвратить утечку Claude?
Казалось бы, если ваша компания вот-вот собирается стать чуть ли не главным экспертом по поиску уязвимостей в программном обеспечении, а впереди, как вам кажется, надвигается цунами ИИ-кибератак, то первое, что вы должны сделать, — это применить собственный кибербезопасностный ИИ, чтобы как следует залатать все дыры в своих же системах.
Странно выглядит ситуация, в которой у Anthropic якобы есть модель уровня Mythos — и одновременно происходит столь крупная утечка. Тут возможны разные объяснения:
либо Mythos не умеет того, что ей приписывают;
либо сам Claude настолько хаотично «навайб-кожен», что его баги и уязвимости почти невозможно нормально исправить;
либо Anthropic попросту не доверяет Mythos настолько, чтобы подпустить его к Claude, опасаясь, что тот всё окончательно сломает.
Какой бы ни была правда, эта несостыковка выглядит очень нехорошо.
Итак: скепсис необходим. Хорошо. Но какие именно вопросы следует задавать?
Вопросы, которые задаю себе я
Я не специалист по ИИ. Я всего лишь смертельно выгоревший аутичный мужик с доступом в интернет. Поэтому «правильного» ответа я вам не дам. Но могу, по крайней мере, перечислить вопросы, которые задаю сам, пытаясь понять, что здесь происходит. Возможно, они пригодятся и вам как отправная точка.
1. Насколько вообще «качественны» найденные уязвимости?
То, что Mythos заявляет о тысячах обнаруженных zero-day-уязвимостей, ещё не означает, что речь действительно идёт о взламываемых, эксплуатируемых рисках.
Например, Дэниел Стенберг, основатель и ведущий разработчик cURL, сказал The Register, что подобные инструменты нередко ошибочно помечают неэксплуатируемые баги как уязвимости, тем самым создавая для команд дополнительное давление и море информационного мусора.
Anthropic, конечно, утверждает, что Mythos Preview в 72,4% случаев умеет находить рабочие эксплойты. Но это вполне может оказаться просто рекламным блеском. В конце концов, само понятие «эксплуатируемости» — вещь подвижная.
Нам нужно убедиться, что Mythos не просто швыряет макароны в стену в надежде, что что-нибудь прилипнет, а действительно способна выявлять реальные риски в реальном коде.
Когда организации, уже получившие доступ к Mythos Preview, выйдут за пределы лабораторных бенчмарков — под которые ИИ, как известно, очень легко подгоняется, — и перейдут к полевому тестированию, тогда, вероятно, мы и получим ответ.
2. Насколько узкоспециализирована эта модель?
По целому ряду причин — например, из-за гипотезы Флориди и границы эффективности вычислений — создавать универсальные модели, которые были бы существенно лучше нынешних, становится всё труднее. Следовательно, Anthropic почти наверняка пришлось сильно сузить специализацию Mythos, превратив её из универсального чат-бота вроде Claude или ChatGPT в специализированный кибербезопасностный инструмент.
То, что Anthropic сейчас ограничена вычислительными ресурсами, — ещё один косвенный аргумент в пользу того, что Mythos, скорее всего, очень узкая модель.
И здесь возникает вопрос: насколько именно пришлось сузить её область применения, чтобы она стала эффективной в этой задаче?
Это важно по двум причинам.
Во-первых, сверхузкая модель банально хуже коммерциализируется: она умеет делать одну вещь и только одну.
Во-вторых, если Anthropic действительно пришлось столь радикально специализировать Mythos, значит, компания осознанно создала инструмент, потенциально способный открыть дорогу кибератакам в масштабах, которых мы прежде не видели.
А это уже плохо сочетается с образом «этической компании», который Anthropic так любит продвигать. Более того, это отличный пример того, почему этот рынок нуждается в регулировании. Если бы любая другая индустрия начала целенаправленно производить машины, способные обрушить цифровую инфраструктуру, на которой держится всё наше общество, её бы зарегулировали в пыль.
3. Сколько вообще стоит её запускать?
Если для нормальной работы Mythos нужны нечеловеческие объёмы вычислений и энергии, тогда эта модель не может быть тем массовым риском, о котором говорит Anthropic; не может быть по-настоящему жизнеспособным коммерческим продуктом; и, строго говоря, может оказаться даже шагом назад для всей ИИ-индустрии.
Мы уже знаем, что Mythos очень дорога в эксплуатации: в документации самой Anthropic прямо сказано, что она «очень дорога для нас в обслуживании и будет очень дорога для наших клиентов». Но насколько дорога?
У Anthropic недостаточно глубокие карманы, чтобы долго субсидировать такой инструмент. А учитывая, что инвесторы всё сильнее нервничают из-за возможного ИИ-пузыря, в ближайшее время вряд ли что-то изменится.
Кроме того, если модель чудовищно дорога в запуске, то при подсчёте стоимости одной найденной уязвимости в долларах она может оказаться попросту бесполезной для бизнеса.
Есть и ещё один момент: высокая цена автоматически ограничивает масштаб использования Mythos и удерживает сервис подальше от более зловредных пользователей.
И это, кстати, большая проблема всех современных ИИ-систем. Чтобы сделать их хотя бы немного лучше, чем сейчас, требуется больше вычислений, а значит — и экспоненциально больше затрат. В результате стоимость таких инструментов начинает выходить за пределы разумной полезности.
4. А как Anthropic вообще собирается устранять уязвимости, которые Mythos находит?
Одно дело — обнаружить уязвимость. Совсем другое — исправить её.
Тот же Дэниел Стенберг, которого я уже цитировал, сказал The Register, что инструменты наподобие Mythos, когда сообщают об уязвимостях, не предлагают решений.
Можно, конечно, предположить, что Anthropic просто объединит Mythos с Claude Code, и тот начнёт на ходу «вайб-чинить» найденные дыры. Но, увы, это вряд ли сработает.
ИИ-инструменты для программирования действительно неплохо генерируют небольшие фрагменты кода. Но при этом они ужасно понимают программы как целое и ещё хуже справляются с самостоятельной реализацией задач. В одной из предыдущих статей я разбирал исследование Университета Ватерлоо, показавшее, что даже лучшие генеративные ИИ-кодеры достигают лишь 75% точности на очень простых задачах программирования. Иными словами, даже базовый код, написанный ИИ, в каждом четвёртом случае просто не работает.
Я также анализировал исследование Veracode, где выяснилось, что 45% кода, сгенерированного ИИ, содержат уязвимости, а также работу Coderabbit, согласно которой в ИИ-коде на 70% больше багов, чем в коде, написанном человеком.
Так что нет, Claude Code, вероятнее всего, не сможет объединиться с Mythos и превратиться в полностью автоматическое решение для кибербезопасности «под ключ».
И это уже серьёзная проблема. По сути, получается, что Anthropic просто обманула нас? Если их заявления о Mythos хотя бы наполовину правдивы, а ИИ-кодинг не способен устранять найденные проблемы, то вся индустрия разработки ПО — и без того работающая на пределе — получит на шею экспоненциально растущий объём работы, потому что команды будут вынуждены в срочном порядке исправлять тысячи новых уязвимостей.
И это, прямо скажем, тоже не очень-то похоже на этичное поведение, правда, Anthropic?
Возможно, здесь предпочтительнее выглядело бы отраслевое регулирование. Но нет — вы ведь так отчаянно хотите быть «этичными» олигархами…
5. И наконец: в чём их длинная игра?
Все эти технобро уверены, что играют в четырёхмерные шахматы, хотя на деле перекатывают стеклянные шарики по столу. Их «гениальные стратегии» обычно не так уж сложно разглядеть насквозь. И это, кстати, не баг, а фича: именно такая прозрачность нередко позволяет им подавать сигналы потенциальным инвесторам.
Так чего же Anthropic в действительности хочет добиться с помощью Mythos? Какой сюжет она пытается исподволь навязать?
Мне кажется, здесь вполне может быть странная смесь рэкета под видом защиты и троянского коня. Объясню.
В то время как вся индустрия в целом — а особенно критически важный сектор open source — и без того работает на износ, Mythos, если верить заявлениям, начнёт буквально заваливать разработчиков отчётами, ставя команды под колоссальное давление. И что им тогда делать?
Ну, очевидно, им предложат обратиться к ИИ-инструментам для кодинга вроде Claude Code — тем более что с Mythos он, вероятно, будет работать лучше, чем сторонние решения, — чтобы ускорить выпуск патчей. Но, как мы уже знаем, эти инструменты сами плодят кучу багов, так что никакого настоящего решения тут нет.
Следовательно, отчёты от Mythos будут продолжать сыпаться, а Claude Code — переписывать всё больше и больше кода. И в какой-то момент, если этот цикл повторится достаточно много раз, значительная часть программного обеспечения окажется написанной ИИ — настолько, что человеку будет уже почти невозможно нормально переписать её вручную. А это фактически вынудит разработчиков пользоваться генеративными ИИ-инструментами, чтобы просто поддерживать свои продукты в рабочем состоянии.
Мне кажется, именно такой сюжет Anthropic и пытается продать: разработчики будут платить неприлично дорого за Mythos ради усиления своей кибербезопасности, но лавина отчётов одновременно подтолкнёт их к использованию генеративных ИИ-кодеров — и в итоге вся индустрия разработки программного обеспечения окажется глубоко зависимой от этих инструментов.
Теперь уточню: я не думаю, что именно так всё и произойдёт на практике. Как я уже говорил, ни Mythos, ни Claude Code пока недостаточно хороши, чтобы провернуть подобное. Но мы живём внутри ИИ-пузыря, а значит, реальность вторична. Важно не то, что есть на самом деле, а то, что инвесторы поверят, будто вы движетесь к монопольному господству.
И потому название Mythos кажется здесь особенно удачным. Похоже, оно продаёт не столько продукт, сколько миф о будущем доминировании ИИ — аккурат перед тем, как Anthropic выйдет на биржу.
Разумеется, всё это только гипотеза. Я не знаю наверняка, таковы ли намерения Anthropic. Я всего лишь пытаюсь читать между строк.
Итог
Пока Anthropic не выпустит Mythos в более широкий доступ, мы, скорее всего, не получим внятных ответов ни на один из этих вопросов — и так и не узнаем, что это: реальный прорыв или гигантский PR-трюк.
Пока что нам остаётся лишь жить с пониманием, что мы попросту не знаем, какая доля во всей этой истории приходится на маркетинговую чушь, а какая — на подлинный риск.
Но одно я знаю точно: в отношении Anthropic нам в любом случае стоит сохранять здоровый скепсис.
ссылка на оригинал статьи https://habr.com/ru/articles/1027838/