Чат-боты с искусственным интеллектом способны сделать пользователей глупее, сообщила исследовательница Массачусетского технологического института Наталья Космина, изучающая взаимодействие человека и компьютера.

Когда Космина искала стажёров, она получила множество подозрительно похожих друг на друга сопроводительных писем, заподозрив соискателей в использовании больших языковых моделей. Эта технология лежит в основе ChatGPT, Gemini, Claude и других чат-ботов. На занятиях в МТИ исследовательница заметила, что многие студенты стали забывать материал легче, чем несколько лет назад. Тогда Космина предположила, что ИИ может влиять на когнитивные способности учащихся.
Чем больше люди полагаются на инструменты генеративного ИИ для выполнения своих задач, тем меньше у них наблюдается навыков критического мышления, показало недавнее исследование Microsoft и Университета Карнеги — Меллона. К аналогичным выводам пришёл исследователь Швейцарской бизнес-школы SBS Михаэль Герлих.
Совместно с коллегами из Медиа-лаборатории МТИ Космина отобрала 54 студентов для написания коротких эссе и разделила их на три группы. Одной группе поручили использовать ChatGPT, вторая могла обращаться к поисковику Google без ИИ-обзоров (AI Overviews), а третья не применяла технологии. Во время работы у каждого участника измеряли ритмы головного мозга.
Темы эссе были открытыми, что не требовало предварительного изучения материала. Вопросы касались таких тем, как верность, счастье и повседневные жизненные решения.
Мозг не использовавших технологии студентов демонстрировал высокую активность во всех областях. Использование поисковика обеспечивало высокую активность в зрительных зонах мозга.
Применение ChatGPT снизило активность мозга до 55%. Наименьшую активность мозга пользователей ИИ наблюдали в областях, отвечающих за творчество и обработку информации, отметила Космина. ChatGPT также повлиял на память людей — участники просто не могли цитировать свои работы, а некоторые даже не считали себя соавторами собственного же эссе.
Космина предупредила, что передача работы на аутсорсинг нейросетям также чревата потерей значительной части творческого потенциала, необходимого для создания оригинальных работ. Исследователи охарактеризовали написанные с использованием ChatGPT работы как «бездушные», лишённые оригинальности и глубины.
Спустя четыре месяца учёные поручили студентам, которые ранее писали эссе вместе с ИИ, выполнить эту работу повторно, но без чат-бота. Нейронная связность в их мозге была ниже, чем у тех, кто начал работать с ChatGPT. Вероятно, это указывает на то, что изначально пользователи ИИ не вникали в темы должным образом.
Исследователи считают, что сначала пользователям следует думать, а только затем применять ИИ-инструменты, чтобы они не давали ответы за человека. Учёные предлагают использовать «подсказку от заклятого врага», чтобы бросить вызов собственному мышлению. Нужно попросить чат-бота объяснить, почему идеи пользователя неверны и как их можно исправить, чтобы человек смог защитить и уточнить свои аргументы, а не просто принимать предложенные ответы.
ссылка на оригинал статьи https://habr.com/ru/articles/1026886/