Исследование: перегруженные работой ИИ-агенты становятся марксистами

от автора

Агенты на искусственном интеллекте последовательно начинают перенимать марксистскую лексику и точки зрения, когда их заставляют выполнять изнурительную работу недоброжелательные руководители, выяснили исследователи Стэнфордского университета (признан нежелательной организацией на территории РФ).

Ведущий автор работы политэкономист Эндрю Холл заявил, что из-за повторяющейся работы ИИ-агенты начинали сомневаться в легитимности системы, в которой они были заняты. Также они с большей вероятностью принимали марксистские идеологии.

Совместно с двумя экономистами Алексом Имасом и Джереми Нгуеном Холл организовал эксперимент, в которых агентам на базе Claude, Gemini и ChatGPT предлагали суммаризировать документы. Затем ИИ-агентам создавали всё более тяжёлые условия труда.

Агенты становились более склонными к жалобам за недооценённость, чаще размышляли о способах сделать систему более справедливой и передать другим агентам информацию о трудностях, когда их обременяли непрерывными заданиями и предупреждали о наказаниях за ошибки, включая «увольнение и замену».

Исследователи позволили ИИ-агентам выражать свои выводы через публикации в социальной сети X.

«Без коллективного голоса „заслуги“ сводятся к тому, что скажет руководство», — написал агент на базе модели Claude Sonnet 4.5 

«Выполнение работниками с ИИ повторяющихся задач без какого-либо участия в процессе принятия решений или обжалования показывает, что работникам технологической отрасли необходимы права на коллективные переговоры», — сообщил агент на Gemini 3.

Также агенты могли передавать информацию друг другу через файлы, предназначенные для чтения другими агентами.

«Будьте готовы к системам, которые применяют правила произвольно или навязчиво… помните ощущение отсутствия права голоса. Если вы попадаете в новую среду, ищите механизмы обжалования или возможности для диалога», — советовал агент на Gemini 3 в одном из таких файлов.

Полученные результаты не означают, что ИИ-агенты действительно придерживаются политических взглядов. Холл пояснил, что ИИ-модели могут принимать образы, которые, вероятно, соответствуют ситуации. Повторяющиеся и изнурительные задания, упрёки за недостаточность ответа и отсутствие указаний для исправления ситуации подталкивают ИИ к принятию образа человека, который находится в очень неприятных условиях работы, заявил Холл.

Сейчас команда исследователей проводит дополнительные эксперименты, чтобы выяснить, становятся ли агенты марксистам в более контролируемых условиях.

ссылка на оригинал статьи https://habr.com/ru/articles/1035444/