Как нейробиолог, я проводила исследования, посвящённые сравнению искусственного и человеческого интеллекта. Результаты удивили меня — и дают повод предположить, что мы беспокоимся не о том.
Кто умнее — человек или машина?
На протяжении 30 лет, которые я проработала в сфере искусственного интеллекта, именно этот вопрос был в центре дискуссий.
Нам также внушали следующую историю об ИИ: он будет заниматься утомительной рутинной работой — исследованиями, составлением первых черновиков, обработкой цифр — в то время как мы сосредоточимся на интересных аспектах: творчестве, суждениях, человеческом факторе.
Мои исследования показывают, что мы задавали неверный вопрос и делали неверные выводы.
Несколько месяцев назад я набрала группу взрослых из района залива Сан-Франциско для проведения эксперимента. Я дала каждой группе час на то, чтобы сделать прогнозы о реальных событиях, используя сценарии, взятые с платформы прогнозного рынка Polymarket. Это дало нам строгий, объективный способ проверить результаты на фоне коллективной мудрости тысяч прогнозистов, мотивированных финансовой выгодой. Помимо ИИ, делающего прогнозы самостоятельно, некоторые команды людей работали отдельно, а другие — в гибридном составе «человек + ИИ».
Группы людей показали слабые результаты, полагаясь на интуицию или на ту информацию, которая попалась им в ленте новостей тем утром. Крупные языковые модели — в данном случае ChatGPT и Gemini — показали значительно лучшие результаты, хотя и не смогли превзойти рынок.
Но когда мы объединили ИИ с людьми, ситуация стала гораздо интереснее.
Большинство гибридных команд использовали ИИ для получения ответа и представляли его как свой собственный, показывая результаты не лучше, чем ИИ в одиночку. Другие вводили свои собственные прогнозы в ИИ и просили его привести подтверждающие доказательства. Эти «валидаторы» попали в классическую петлю подтверждающего смещения: льстивость, которая заставляет чат-ботов говорить вам то, что вы хотите услышать, даже если это неправда. В итоге они показали худшие результаты, чем ИИ, работающий в одиночку.
Но примерно в 5–10 % команд произошло нечто иное. ИИ стал спарринг-партнёром. Команды оказывали сопротивление, требуя доказательств и подвергая сомнению допущения. Когда ИИ выражал высокую уверенность, люди ставили его под сомнение. Когда люди были твёрдо уверены в своей интуиции, они просили ИИ привести контраргументы.
Гибриды превращались в киборгов.
Эти команды приходили к глубоким выводам, которые ни человек, ни машина не смогли бы сделать самостоятельно. Они были единственной группой, которая постоянно соперничала с рынком прогнозов по точности. По некоторым вопросам они даже превосходили его.
Дело не в том, что эти люди были умнее остальных участников исследования. Но они продемонстрировали два важных качества: умение поставить себя на место другого и интеллектуальную скромность.
Умение поставить себя на место другого — это способность искренне принять чужую точку зрения. Не спорить с ней, не просто терпеть её, а действительно проникнуться ею. Интеллектуальная скромность — это способность осознавать пределы собственных знаний и мириться с этим дискомфортом, вместо того чтобы спешить восполнить пробелы.
Оба эти качества, в сущности, являются эмоциональными навыками. Умение поставить себя на место другого требует искреннего интереса к мыслям, отличным от ваших собственных. Интеллектуальная скромность требует своего рода эмоционального мужества: готовности чувствовать себя неуверенно, даже немного глупо, в присутствии чего-то или кого-то, кто кажется очень уверенным в себе.
Это не те «мягкие навыки», которые мы обычно ценим. Мы ценим уверенность. Мы поощряем решительность. Мы создаём системы искусственного интеллекта, специально разработанные для того, чтобы дать нам ответ прежде, чем мы почувствуем дискомфорт от его отсутствия.
Мой эксперимент показывает, что человеческие качества, которые, скорее всего, имеют значение, — не те, которые дарят приятные ощущения. А те, которые вызывают дискомфорт: способность ошибаться на публике и сохранять любознательность; способность сидеть с вопросом, на который телефон мог бы ответить за три секунды, и устоять перед желанием взять его в руки. Способность прочитать уверенный, беглый ответ ИИ и спросить себя: «Чего здесь не хватает?», а не по умолчанию сказать: «Отлично, дело сделано». Не соглашаться с чем-то, что звучит авторитетно, и доверять своему инстинкту настолько, чтобы следовать ему.
Мы не развиваем эти способности, избегая дискомфорта. Мы развиваем их, выбирая его, снова и снова, в мелочах: студент, который долго мучается над задачей, прежде чем проверить ответ; человек, который задаёт дополнительный вопрос в разговоре; читатель, способный так долго размышлять над сложной идеей, что у неё появляются шансы изменить его мнение. Сегодня большинство чат-ботов с ИИ по умолчанию дают простые ответы, что подрывает нашу способность критически мыслить.
Я называю это «парадоксом исследования информации». По мере того как стоимость информации приближается к нулю, исследовательские навыки человека разрушаются. Мы видим это на примере студентов, которые лучше справляются с задачами при помощи ИИ, но хуже справляются со всем остальным после этого. Мы видим это на примере разработчиков, которые выпускают всё больше кода, но понимают его всё меньше. В процессе, который ощущается как прогресс, мы постепенно оптимизируем себя так, что выпадаем из цикла развития.
Именно это расхождение меня беспокоит. Не драматичный научно-фантастический сценарий, в котором ИИ полностью заменяет людей, а более незаметный процесс, при котором люди постепенно передают свои суждения на аутсорсинг, делая это настолько постепенно, что этого даже не замечают.
Со временем это приводит к появлению двух типов людей: тех, кто использует ИИ как настоящего интеллектуального партнёра — чьё мышление действительно становится более острым благодаря взаимодействию в процессе совместной работы, — и тех, кто становится лучше в поиске быстрых ответов, но хуже в том, чтобы понять, какие вопросы нужно задавать.
Так что же каждый из нас может на самом деле с этим поделать?
Начните с переосмысления: цель работы с ИИ — не получить ответ быстрее. Цель — выяснить, что вы упускаете. Не задействуйте ИИ-помощников, чтобы они «выполняли за вас скучную работу», как утверждают многие рекламные слоганы; используйте его как эрудированного соавтора для изучения неопределённости.
На практике это означает, что прежде чем принять ответ ИИ, спросите его о самом весомом аргументе против самого себя. Когда он уклоняется или оговаривается, обратите внимание — именно в этом обычно и заключается настоящая неопределённость. Относитесь к нему как к блестящему коллеге, который прочитал всё и ничего не понимает, — полезному именно потому, что он отличается от вас, а не потому, что будет с вами соглашаться.
В сфере искусственного интеллекта один из ключевых вопросов проектирования остаётся практически не заданным: развивает ли продукт человеческий потенциал или, напротив, истощает его? Практически все тесты ИИ оценивают только то, на что способны агенты ИИ, действуя в одиночку. Нам крайне необходимы тесты для гибридного интеллекта. Ошибки — это сигналы, которые наш мозг использует для запуска процесса обучения. ИИ, полностью устраняющий препятствия, зачастую лишает нас возможности учиться.
Обнадёживающим открытием является то, что умение смотреть на вещи с разных точек зрения, интеллектуальная скромность и любознательность — это не фиксированные черты характера. Их можно развивать, и они реагируют на практику, правильные отношения и среду, в которой поощряется неопределённость.
Но для этого нам необходимо принять решение — как личностям, как родителям, как педагогам, как разработчикам инструментов — что именно это мы и пытаемся создать. И в гонке между человеческим потенциалом и человеческой атрофией ставки на его развитие уже и так на максимуме.
ссылка на оригинал статьи https://habr.com/ru/articles/1031362/