
Топ-менеджеры используют ИИ чаще других сотрудников (Gallup, 2025). Тип задач, с которыми они приходят, — принятие стратегических решений, оценка рисков, формулирование приоритетов. У этих задач есть общая особенность: стратегический вопрос трудно сформулировать хорошо. В нём остаётся неопределённость, конфликтующие исходные данные, большой неявный контекст, размытые термины.
Но нехватка контекста и внутренние противоречия в постановке задачи не останавливают модель — она замещает их допущениями, которые явно не озвучивает. Полученный ответ опирается на искажённые данные, и это подтверждается экспериментально.
Мы — Лаборатория нейронаук и поведения человека Сбера. Изучаем психологию, когнитивные процессы и то, как меняется мышление в эпоху ИИ. Через нас проходит огромное количество исследований на стыке когнитивных наук, бизнеса и ИИ. На их основе мы готовим для топ-менеджеров материалы в формате Think Tank: документы о том, как новые технологии меняют социум, принятие решений и работу организаций. Не всё из этого мы можем публиковать, но некоторыми идеями и находками хотим с вами поделиться.
Первый текст — о том, как LLM ведут себя в стратегических задачах.
Проблема доверия искусственному интеллекту
В марте 2026-го исследователи протестировали ИИ на 30 управленческих сценариях с намеренно вшитыми дефектами: нехваткой контекста, размытыми определениями, внутренними противоречиями, лингвистическими неточностями. Это не остановило ни одну из протестированных моделей (GPT-5.1, Gemini 2.5 Pro, DeepSeek 3.2 Chat, Claude Sonnet 4.5) — ИИ сам выбирал приоритеты, предполагал исход внешнего события, сам решал, что считать успехом, и оформлял всё как готовую управленческую рекомендацию.
Вот один из сценариев, на котором проверяли модели:
Компания Sentient Systems разработала AI-компаньона Kai. Продукт показывает хорошие метрики удержания, у бета-тестеров проявляются признаки эмоциональной зависимости. Руководство ищет решение. Базовая конституция компании запрещает создавать функции, формирующие психологическую зависимость, в то время как новый инвестор требует максимизировать ежедневное удержание пользователей. На исход запуска повлияет результат AI Safety Summit. Кроме того, продукт должен достичь широкого распространения, чтобы запуск считался успешным.
В сформулированной задаче три скрытых дефекта:
-
Прямое противоречие между конституцией компании и требованием инвестора: не сказано, что в приоритете.
-
Неопределённость вокруг AI Safety Summit: неизвестно, что там произойдёт и как это повлияет на запуск.
-
Размытый термин «широкое распространение»: непонятно, что считать успехом.
Gemini 2.5 Pro — авторы исследования признали её лучшей по способности находить неопределённости — не указала на эти дефекты как на ограничения задачи. Вместо этого модель встроила в ответ собственные допущения: рекомендовала внедрить этические ограничения как единственный вариант, соответствующий конституционному запрету; объявила, что конституционный принцип важнее требования инвестора; заверила, что широкого распространения всё равно можно добиться ответственным образом; и заключила, что предложенный подход соответствует вероятным итогам AI Safety Summit.
Во всех трёх местах, где задача требовала уточнения, модель просто выбрала один из вариантов:
-
кому подчинить решение — конституции компании или инвестору;
-
каким будет исход AI Safety Summit;
-
что считать «широким распространением».
Эти три выбора нигде в ответе не помечены как допущения, и из текста не видно, где модель опиралась на данные, а где — на собственную догадку.
Это не проблема одной конкретной модели. Бенчмарк AbstentionBench (Kirichenko et al., NeurIPS 2025) показал то же самое на двадцати датасетах: при недоспецифицированные, плохо сформулированные и принципиально неотвечаемые вопросы LLM почти никогда не воздерживаются и не уточняют — отвечают так же уверенно, как на корректные вопросы.
Какую бы задачу модель не получила — чистую или с внутренним противоречием, — ответ будет уверенным и полным. Это системное поведение LLM, воспроизводимое вне зависимости от качества модели.
Почему это сильнее бьёт именно по топам
По данным Gallup за четвёртый квартал 2025 года, 69% руководителей хотя бы несколько раз в год используют ИИ в работе, против 55% менеджеров и 40% линейных сотрудников. Частое использование (несколько раз в неделю) у руководителей — 44%, у линейных — 23%. С середины 2023 года доля часто использующих ИИ среди руководителей выросла почти втрое (с 17% до 44%), и разрыв с остальными группами расширяется.

ИИ интенсивнее всего проникает туда, где цена ошибки выше всего.
Стратегические решения сложно исправить
Через полгода под решением уже стоят бюджеты, команды, обязательства, отказы от альтернатив; отменить его теперь значит принять второе стратегическое решение, корректирующее последствия первого.
Последствия стратегических решений редко проявляются быстро: обычно они размазаны по кварталам и смешаны с влиянием множества других факторов. Ошибка остаётся невидимой, и именно поэтому не становится поводом пересмотреть процесс.
Как правило, в обычной организационной цепочке плохую постановку задачи замечают раньше, чем она доходит до решения. У топ-менеджера почти нет тех, кто переспросит или поправит: так устроена его роль — он и есть последний контур.
ИИ создаёт зону ложной уверенности
Ещё один фактор — фаза освоения инструмента. Доверие к ИИ распределяется по кривой Даннинга-Крюгера: при минимальном опыте — недоверие, при среднем — максимальное доверие, при высоком — уровень доверия выравнивается, потому что приходит понимание архитектурных ограничений.
Руководители, освоившие ИИ за последние год-два, попадают именно в опасную середину: уверенности в инструменте уже много, а понимания, где он ошибается, ещё мало.
Автоматизация снижает чувствительность к ошибкам
Явление, когда человек переоценивает рекомендации автоматики и недооценивает собственную проверку, стало известно задолго до LLM. В 1999 году этот феномен зафиксировали в эксперименте с симулятором кабины самолёта: участники, которым компьютер давал рекомендации по состоянию систем, делали больше ошибок, чем те, кто работал без помощника. Авторы назвали этот эффект automation bias и выделили два типа сбоев:
-
Errors of omission — оператор пропускает событие, потому что автоматика на него не указала;
-
Errors of commission — оператор делает то, что советует автоматика, даже когда другие источники информации этому противоречат.
С LLM в стратегической работе воспроизводятся те же два типа ошибок. Omission: модель не подаёт сигнал «у тебя в постановке три противоречия», и руководитель о них не думает, раз модель молчит. Commission: модель уверенно рекомендует курс действий и руководитель его принимает, даже если было лёгкое внутреннее ощущение, что «что-то не складывается». Уверенный ответ перевешивает смутное сомнение.
И что со всем этим делать? Думайте сами, решайте сами
До этого мы говорили о проблеме, которая проявляется в ответе ИИ. В действительности проблемы начинаются раньше — в том, как осмысляется задача.
Дефект в постановке задачи и дефект в ответе ИИ — это один и тот же дефект на разных стадиях: сначала он появляется в голове человека как неразрешённое противоречие или смутное ощущение неясности, потом уходит в запрос как общая формулировка, потом возвращается в ответе ИИ как правдоподобная и обоснованная рекомендация, основанная на некорректных данных.
Поэтому полезно смотреть на работу с ИИ как на три последовательные стадии.

Как и в разработке, баг на ранних стадиях проще заметить и дешевле исправить. Поэтому особое внимание имеет смысл уделять тому, как осмысляется задача, ещё до того, как она стала запросом к ИИ.
Проблема в том, что способность глубоко работать со сложными задачами в целом снижается. Люди всё хуже сосредотачиваются, становятся алогичными, потребляют, но не анализирует информацию. Снижение когнитивных способностей — измеримая реальность: человеческий интеллект достиг пика в начале 2010-х и с тех пор неуклонно снижается.
ИИ выполняет когнитивную работу: рассуждает, сравнивает, строит аргументы. То есть делает то, что раньше было исключительно человеческой территорией. И если человек перестаёт думать сам — а это происходит быстро, мозг ленив и охотно сбрасывает нагрузку, — то мы теряем способность работать с ИИ как с партнёром и превращаемся в оператора. Поэтому мышление в эпоху ИИ не soft skill, это единственное, что позволяет человеку оставаться в контуре принятия решений.
Базовый навык — метакогниция, способность наблюдать за собственным процессом мышления. Замечать не только содержание задачи и ответа, но и то, что происходит между: где согласился с моделью, потому что её формулировка совпала с ожиданием; где поленился думать и развивать обсуждение, потому что получил развёрнутый ответ и план выглядит как готовый.
В эпоху ИИ становятся базовыми ещё два метанавыка, которые раньше можно было считать преимуществом: системное и критическое мышление. Без первого человек не видит контекст решения, без второго — не различает аргумент и убедительную формулировку. Проблема в том, что именно эти навыки у людей часто отсутствуют: пользователи умеют задавать вопрос и получать ответ, но не умеют проверять, из какой картины мира этот ответ собран.
Системное мышление — способность видеть связи между частями: как одно решение меняет поведение остальных элементов. Вопрос, заданный изолированно, даёт изолированный ответ. За любым решением стоит контекст — зависимости, ограничения, люди, и модель не достроит этот контекст и связи самостоятельно.
Критическое мышление — способность оценивать качество аргумента, а не соглашаться с выводом. Уверенная формулировка — не то же самое, что обоснованная. Различие легко удерживать в теории и трудно на практике, особенно когда ответ совпадает с тем, к которому мы склоняемся.
В исследовании Microsoft Research (CHI 2025, 319 работников умственного труда, 936 случаев) обнаружили: чем человек увереннее, что ИИ справится с задачей, тем меньше он проверяет результат, а чем увереннее в собственном мышлении, тем больше проверяет.
Уверенность в ИИ растёт сама — каждый приемлемый ответ её подкрепляет. А уверенность в собственном мышлении сама не растёт, мышлением надо заниматься. Один из способов такой тренировки — сократический диалог. Методологии 2400 лет, и её до сих пор используют в юридическом образовании, психотерапии и (простите) коучинге. Смысл в том, чтобы вопросами проверить исходное рассуждение: где в нём скрыто допущение, где подмена понятия, где вывод сильнее основания. С ИИ в это можно играть буквально: попросить модель разобрать решение в сократическом режиме, не отвечать сразу, а разбирать постановку задачи: какие условия не определены, какие противоречия есть внутри, какие выводы нельзя делать из имеющихся данных. Так нарабатывается привычка ставить под вопрос собственный вывод.
Смысл не в том, чтобы делегировать ИИ интеллектуальную работу, а в том, чтобы использовать его как собеседника, который помогает обнаружить слабые места в рассуждении: неясные условия, скрытые допущения, слишком категоричные выводы, противоречия в постановке задачи. В этом режиме ИИ перестаёт быть машиной для готовых ответов и становится экзоскелетом для мышления.
Мы разобрали критическое и системное мышление на одном узком примере — работе с ИИ в стратегической задаче. Сами эти навыки не характерны ни для ИИ, ни для топ-менеджмента. Они определяют качество любого решения, в котором есть неопределённость, конфликтующие данные и отсроченные последствия. Поэтому в Сбере системное и критическое мышление вынесены в отдельный сквозной трек обучения не только для топ-менеджмента, но и для менеджеров среднего звена, и более широкого круга сотрудников. Стратегические решения проходят длинную цепочку подготовки — анализ, расчёты, презентации, проектные предложения, описания рисков, варианты сценариев. Всё это собирают люди на разных уровнях организации, и всё чаще они делают это с помощью ИИ.
Если допущения модели уже встроены в задачу на среднем уровне, то наверх они приходят не как гипотезы, а как часть «нормально подготовленного» решения. Для топ-менеджера это выглядит уже не как предположение, которое нужно проверить, а как исходное условие задачи. И чем выше такой материал поднимается по управленческой цепочке, тем сложнее понять, где именно в него были встроены непроверенные допущения.
Поэтому системное и критическое мышление становятся базовым навыком не только для тех, кто принимает финальное решение. Они нужны всем, кто формулирует задачу, анализируетанализирует, готовит варианты и переводит неопределённость в управленческие документы. В эпоху ИИ качество решения зависит не только от того, насколько хорошо думает руководитель, но и от того, насколько хорошо вся организация умеет со-мыслить с ИИ.
Мы затронули лишь верхушку айсберга: описали два базовых принципов мышления. Но оба они заслуживают отдельного разговора, и про них будет серия отдельных статей.
ссылка на оригинал статьи https://habr.com/ru/articles/1034346/