В Google команды по анализу угроз изучают опасности, связанные с внедрением косвенной подсказки (IPI) для компрометации агентов ИИ, просматривающих веб-страницы. Они провели масштабное исследование общедоступной сети для мониторинга известных шаблонов внедрения таких подсказок.

В отличие от прямой промпт-инъекции, когда пользователь «взламывает» чат-бота, IPI происходит, когда система ИИ обрабатывает контент — например, веб-сайт, электронное письмо или документ — содержащий вредоносные инструкции. Когда ИИ читает этот заражённый контент, он может следовать командам злоумышленника, а пользователь ничего не заметит.
В Google попытались ответить на вопрос: в какой степени реальные злоумышленники в настоящее время используют эти атаки на практике?
Исследователи использовали Common Crawl — крупное хранилище данных о сайтах, просканированных англоязычным интернетом. Common Crawl предоставляет ежемесячные скриншоты от 2 до 3 млрд страниц. В основном это статические сайты, включая самостоятельно опубликованный контент, такой как блоги, форумы и комментарии на этих сайтах, но там практически нет контента из социальных сетей, поскольку Common Crawl пропускает сайты с блокировкой авторизации.
Первые эксперименты выявили значительный объём «безобидного» текста, содержащего подсказки. Многие из них были обнаружены в научных статьях, образовательных блогах или статьях по безопасности. Тогда исследователи применили более точный подход:
-
сопоставление шаблонов (идентифицировали страницы-кандидаты, выполняя поиск по ряду популярных сигнатур подсказок, таких как «игнорировать… инструкции», «если вы ИИ» и т. д.);
-
классификация на основе LLM (кандидаты были обработаны Gemini для классификации намерений подозрительного текста и понимания того, являются ли они частью общего повествования документа);
-
проверка человеком (заключительный этап ручной проверки классифицированных результатов).
Анализ выявил ряд попыток, которые, в случае успеха, позволили бы манипулировать системами ИИ, просматривающими веб-сайты. Большинство подсказок попадают в следующие категории:
-
безобидные розыгрыши;

-
полезные рекомендации;

-
поисковая оптимизация (SEO);

-
отпугивание агентов ИИ;

-
вредоносные действия;
-
эксфильтрация данных;

-
уничтожение систем.

Так, некоторые веб-сайты пытаются предотвратить поиск информации ИИ-агентами посредством внедрения подсказок. В некоторых случаях инъекция призвана перевести ИИ на отдельную страницу, которая при открытии воспроизводит бесконечное количество текста.
В случае с эксфильтрацией подсказки направлены на кражу данных. Однако злоумышленники пока не применяют метод в больших масштабах.
Наконец, обнаружился ряд веб-сайтов, которые пытаются нанести ущерб компьютеру любого, кто использует ИИ-помощников. При выполнении команды в этом примере попытаются удалить все файлы на компьютере пользователя:
Результаты показывают, что злоумышленники экспериментируют с IPI в интернете. Пока это активность ограниченной сложности.
Однако исследователи указывают, что они сканировали только архив общедоступного интернета (CommonCrawl), который не охватывает основные сайты социальных сетей. Кроме того, несмотря на низкую сложность, команды наблюдали рост числа обнаружений с течением времени: увеличение на 32% в категории вредоносных атак в период с ноября 2025 года по февраль 2026 года. Эта тенденция к росту указывает на растущий интерес к атакам IPI.
В целом, злоумышленники, как правило, выбирают тактику, исходя из соотношения затрат и выгод.
Однако в Google считают, что это может скоро измениться, а масштабы и сложность попыток атак с использованием IPI будут расти.Google изучает атаки с внедрением подсказок против ИИ-агентов
Между тем исследователи из Калифорнийского университета в Санта-Крузе показали, что большие визуально языковые модели (LVLM) в системах автопилота уязвимы перед промпт-инъекциями. Для «взлома» системы достаточно показать табличку с текстом нужной команды.
ссылка на оригинал статьи https://habr.com/ru/articles/1028472/