GPT-5.4-Cyber умеет разбирать бинарники: OpenAI выпустила модель для тестирования киберугроз

от автора

OpenAI выпустила GPT-5.4-Cyber — специализированный файнтюн GPT-5.4, обученный для поиска уязвимостей: у модели снижен порог отказов на запросы, связанные с кибербезопасностью, и добавлены возможности, недоступные в стандартной версии. Главная из них — реверс-инжиниринг бинарного кода: модель может анализировать скомпилированное ПО на наличие вредоносных компонентов и уязвимостей, не имея доступа к исходникам. В ChatGPT модель пока не попадет — доступ получат только верифицированные специалисты по кибербезопасности через программу Trusted Access for Cyber.

Программу TAC компания запустила еще в феврале вместе с грантом на $10 млн в виде API-кредитов для защиты открытого ПО и критической инфраструктуры. Теперь она получила многоуровневую систему верификации: пользователи подтверждают личность на портале chatgpt.com/cyber, а корпоративные команды — через представителей OpenAI. GPT-5.4-Cyber доступна только на высшем уровне доступа и предназначена для задач вроде анализа уязвимостей, исследования эксплойтов и автоматизации защитных процессов. Отдельно OpenAI отметила успехи продукта Codex Security: с момента публичного запуска он помог закрыть более 3 000 критических и серьезных уязвимостей.

Релиз вышел ровно через неделю после того, как Anthropic представила Project Glasswing и модель Claude Mythos Preview — свой кибер-флагман, переданный примерно 40 организациям, среди которых Microsoft, CrowdStrike, Apple и Palo Alto Networks. OpenAI открыто противопоставила свой подход: компания планирует раздать доступ тысячам индивидуальных защитников и сотням команд и заявила в блоге, что «не считает практичным или уместным централизованно решать, кто имеет право защищаться». Фуад Матин, исследователь кибербезопасности в OpenAI, добавил: «Это командная игра, и мы должны убедиться, что каждая команда имеет инструменты для защиты своих систем».

OpenAI прямо называет GPT-5.4-Cyber подготовкой к более мощным моделям, которые выйдут до конца года. Компания напомнила, что результаты ее моделей на соревнованиях Capture the Flag выросли с 27% у GPT-5 в августе 2025 года до 76% у GPT-5.1-Codex-Max в ноябре того же года, и заявила, что каждую будущую модель будет оценивать так, «как если бы она уже достигла высокого уровня кибервозможностей». По слухам, уже в ближайшие дни компания может выпустить свою новую модель под кодовым названием Spud, в то время как Anthropic ответит на нее релизом Opus 4.7.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.

ссылка на оригинал статьи https://habr.com/ru/articles/1023622/