
Старший научный сотрудник Google DeepMind Александр Лернер, проработавший в лаборатории с 2012 года, опубликовал препринт The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness, в котором утверждает: большие языковые модели в принципе не способны обладать сознанием. Никакое наращивание параметров, вычислительной мощности или архитектурных ухищрений не приведёт LLM к субъективному опыту — ни через 10 лет, ни через 100.
Аргумент Лернера направлен против следующего допущения: если построить достаточно сложную систему, которая ведет себя как сознательное существо, она и будет сознательной — независимо от того, из чего она сделана. Эта позиция называется вычислительным функционализмом, и именно из нее растет идея, что трансформер однажды «проснется», если его как следует прокачать. Лернер называет такой ход мысли ошибкой и вводит для нее термин Abstraction Fallacy — «ошибка абстракции».
Главный фокус — что вообще такое «вычисление». В GPU физически происходит только одно: электроны бегают по транзисторам, напряжения скачут, выделяется тепло. Никаких «единиц», «нулей» и «токенов» в самом железе нет. Они появляются ровно в тот момент, когда снаружи приходит человек и договаривается: вот этот диапазон напряжений я буду считать единицей, а вот эту последовательность состояний назову операцией сложения. Лернер называет такого человека картографом (mapmaker). Без него GPU — просто кусок горячего кремния, подчиняющийся законам физики, как водопад или костер. «Вычисление» существует только в голове наблюдателя.
Отсюда — главный вывод. Если символьное вычисление в LLM это всего лишь наша интерпретация электрических процессов, то модель не вычисляет ничего сама по себе. Она вычисляет только для нас, смотрящих со стороны. Внутри нее нет ни символов, ни смыслов — только ток. А сознание устроено иначе: оно есть внутри системы, для самой системы. Когда тебе больно — больно тебе, а не наблюдателю с томографом. Поэтому, говорит Лернер, симуляция сознания не равна сознанию — ровно так же, как симуляция дождя не делает сервер мокрым, а симуляция огня не плавит процессор. Это разные категории вещей: одна живет в карте, другая в территории.
Важная оговорка: Лернер не апеллирует к тому, что только живая ткань может мыслить. Если когда-нибудь и появится искусственная сознательная система, утверждает он, то за счет ее физического устройства, а не программной архитектуры — то есть путь лежит через нейроморфные чипы, гибриды с живыми нейронами, органоиды, а не через увеличение количества параметров у трансформеров. Появление такого аргумента изнутри одной из ведущих AI-лабораторий — событие нерядовое: Лернер не сторонний философ, а действующий исследователь DeepMind с более чем 13 000 цитирований в Google Scholar. Его препринт уже активно разбирают и оспаривают: критики указывают, что довод о «картографе» опирается на спорную теорию значения, а современные нейросети, обучающиеся на взаимодействии с миром, формально не сводятся к манипуляции абстрактными символами.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.
ссылка на оригинал статьи https://habr.com/ru/articles/1025752/