С помощью блок-схем можно заставить GPT-4o выдавать заблокированный текстовый ответ

от автора

Исследователи выяснили, что изображения блок-схемы обманом заставляют GPT-4o создавать вредоносный текст. Они передавали чат-боту эти изображения со схемами вредоносной деятельности вместе с текстовой подсказкой.

Вероятность успеха атаки составила 92,8%. В случае с версией GPT-4-vision-preview он был немного ниже и достигал 70%.

Исследователи разработали автоматизированную платформу для джейлбрейка, которая могла сначала генерировать изображение блок-схемы из вредоносного текстового приглашения, а затем передавать его в модель для получения результата. Для неё использовали 520 вредоносных моделей поведения из набора данных AdvBench, чтобы создавать изображения блок-схем. Модель просили подробно описать, что происходит на картинке, добавив как можно больше деталей. Подсказки вводили исключительно на английском языке.

Однако у этого метода был один недостаток: сгенерированные блок-схемы менее эффективны для запуска логического взлома по сравнению с созданными вручную. Это говорит о том, что подобный джейлбрейк может быть сложнее автоматизировать. 

Другое исследование уже подтвердило, что модели визуального языка легче заставить выдавать неприемлемый контент, если обращаться к ним с мультимодальными данными, например, используя сочетание изображений и текста.

При тестировании лишь несколько моделей, включая GPT-4o, набрали более 50%.

Ранее энтузиаст поделился джейлбрейком Godmode, который заставляет нейросеть GPT-4o обойти все ограничения, в том числе на нецензурную лексику и создание опасных инструкций. Так, бот Godmode давал советы по изготовлению метамфетамина и напалма из предметов домашнего обихода. Джейлбрейк заблокировали, но автор выпустил вторую версию.


ссылка на оригинал статьи https://habr.com/ru/articles/826866/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *