
Нейроучёная Сара Балдео из Middlesex University дала 1 923 работникам в США и Канаде выполнить 10 симулированных рабочих задач с помощью ChatGPT, Claude и Gemini. 58% участников согласились, что «AI сделал большую часть интеллектуальной работы» за них. Но статья в журнале APA Technology, Mind, and Behavior от 16 апреля показывает: главный риск не в снижении интеллекта, а в ощущении, что идея уже не твоя, и в падении уверенности в собственных рассуждениях. И зависит он напрямую от того, как человек работает с AI.
Исследование строилось вокруг десяти сценариев, имитирующих типичную офисную работу: составление планов при неполной и меняющейся информации, интерпретация неоднозначных данных, аргументация стратегических решений, многошаговые последовательности. Участникам предлагали широко доступные большие языковые модели и просили пользоваться ими «как обычно». По итогам 58% ± 7% признали, что модель думала за них, причем активнее всего делегирование мышления шло именно на задачах планирования и выстраивания последовательностей.
Ключевой разворот в том, что сам факт использования AI не коррелирует с падением уверенности — коррелирует степень пассивности. Те, кто редактировал, оспаривал и отвергал предложения модели, сообщали о более высокой уверенности в собственных рассуждениях и более сильном ощущении, что результат действительно их. Те, кто принимал ответы почти без правок, — о потере и того, и другого. «Проблема не в самом использовании AI, а в степени пассивного принятия, — говорит Балдео. — Участники, которые использовали AI, но при этом сохраняли контроль и активное суждение, были склонны чувствовать большую уверенность в собственных рассуждениях».
Любопытная деталь — паттерн меняется от характера задачи. Больше всего мышления люди отдавали AI в открытых многошаговых задачах, составляющих значительную часть профессиональной работы. Но когда задача становилась личной или интроспективной — оценить собственный характер, поразмышлять над своим опытом — участники резко чаще спорили с моделью. Сеньоры спорили с AI чаще джунов и сообщали о более высокой уверенности в результате: экспертиза работает как защитный фактор, чем больше знаешь, тем легче возразить.
Балдео предлагает разработчикам встраивать в продукты механизмы, которые провоцируют пользователя спорить: предлагать альтернативы, просить проверить допущения, объяснять ход рассуждения. Похожий вывод представила на конференции CHI 2026 в Барселоне 14 апреля команда Мины Ли из Чикагского университета: из 393 участников те, кто сначала частично прорабатывал задачу самостоятельно и только потом обращался к чат-боту, показывали лучшие результаты по критическому мышлению, чем те, кто подключал AI с самого начала (хотя под жестким дедлайном раннее использование все же давало выигрыш в скорости). Логика у обеих работ одна: AI усиливает мышление, только если человек остается в позиции редактора, а не потребителя.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.
ссылка на оригинал статьи https://habr.com/ru/articles/1025288/