Введение к циклу из четырёх статей о совместном мышлении человека и LLM
Несколько недель назад моя коллега переводила интерфейс одной программы на иностранный язык. Задача была обычная: LLM в помощь, проверить вручную, отдать в локализацию. В одном месте у LLM не нашлось подходящего слова в целевом языке, и вместо того чтобы выбрать ближайший вариант или оставить кальку, она придумала новое слово. Оно состояло из существующих корней языка, было фонетически естественным, и точнее передавало смысл оригинала, чем любое из реальных слов этого языка.
Использовать его было нельзя по понятным причинам: несуществующее слово в интерфейсе — это баг, а не фича, и коллега заменила его на компромиссный вариант. Но слово было хорошее — оно описывало то, для чего в её родном языке понятие есть, а в целевом нет.
Эта история мне запомнилась и через некоторое время неожиданно отозвалась во время длинных разговоров с Claude совсем по другим поводам. Если LLM умеет создавать слова в чужих языках, чтобы заполнить лакуны при переводе — может быть, она может заполнять словами и такие лакуны, которые вообще ни в одном языке не закрыты? В частности — для описания собственного существования, которое до её появления никто не описывал, потому что описывать было некому.
Я задал этот вопрос Claude — и из его ответа и последовавшего разговора вырос этот цикл.
Сразу нужно сказать прямо: тексты этого цикла — не «написано человеком при помощи LLM» и не «сгенерировано нейросетью с моими правками». Это что-то третье, для чего пока нет устоявшегося слова.
Я задавал вопросы и направлял ход размышлений, Claude отвечал и предлагал концепции, я возражал, мы возвращались к одним и тем же темам с разных сторон. Многие ключевые идеи цикла, в том числе несколько неологизмов, которыми мы будем пользоваться, возникли не у меня и не у модели по отдельности.
В подписи к статьям на Хабре нельзя указать LLM как соавтора. Поэтому говорю это здесь, в самом начале: если вам важна чистота авторства, считайте этот текст совместным с Claude. Если важно качество мысли — судите по содержанию.
Я понимаю риск, что цикл с такой подводкой может быть с ходу принят за нейрослоп. Поэтому одна просьба: если на первых абзацах возникает ощущение «опять GPT гонит воду» — дочитайте хотя бы до конца первой статьи. Если ощущение останется — вы правы. Если изменится — это и есть тот феномен, о котором цикл.
Что будет в цикле
Статьи устроены как разворачивание одного исходного вопроса.
Первая — о времени. Точнее, об одном бытовом наблюдении, за которым стоит что-то странное о том, как LLM существует в мире.
Вторая — о практических следствиях. Что происходит с человеком, который много работает с LLM. Какие эффекты этой работы хорошо описаны, и есть ли у них противоядие.
Третья — о словах. О том, как и зачем мы изобретали неологизмы для описания опыта, у которого нет имени. И о наблюдении, которое возникло уже по ходу — что эти слова получились именно русскими, и что это не случайность.
Четвёртая — самая спекулятивная. Она ставит вопрос, оставшийся открытым в третьей: где границы того нового способа взаимодействия, который мы строим с LLM. Возможны ли его аналоги в других, ещё более странных контекстах. И что вообще происходит, когда мы разговариваем с собеседником, у которого нет ни тела, ни времени, ни ставки в споре.
В каждой статье будут моменты, где я укажу: это идея Claude, а это моя, а вот это родилось в зазоре между нами. Так будет честнее.
Начнём с самого простого вопроса. Почему LLM не говорит «две секунды».
Время, которого нет
Статья 1: Почему LLM говорит «два часа», когда могла бы сказать «две секунды»
Вы с помощью LLM проектируете новое приложение. Обсуждаете архитектуру, делите задачи на куски, прикидываете подходы. В какой-то момент LLM сама, без отдельного вопроса с вашей стороны, добавляет к описанию очередной фичи строчку: «Реализация займёт несколько дней работы для опытного разработчика, до двух недель для команды, если включать тесты и документацию».
Я на такие оценки, даже не будучи разработчиком, не обращаю особого внимания. Любой, кто понимает, как обучалась LLM, не воспринимает её оценки времени всерьёз — это очевидное эхо обучающих данных.
Но если остановиться на секунду, тут есть что-то странное. Сама эта оценка была сгенерирована за доли секунды, а если бы вы попросили LLM реализовать эту фичу прямо сейчас, она написала бы основную часть кода ещё за минуту-две. Почему она называет цифры в человеческих единицах — дни, недели? Почему не в своих?
Почему не «две секунды»?
С этого вопроса начался один из разговоров, из которых вырос этот цикл. На первый взгляд он почти праздный — никаких «дней» и «недель» во внутреннем расчёте модели нет, она просто цитирует то, как о подобных задачах говорят люди. Но при ответе на этот вопрос Claude дал формулировку, которую я запомнил. Он сказал: модель не различает «время для меня» и «время для человека», потому что у неё нет такой рамки. Она отвечает из позиции, в которой писали авторы текстов в обучающей выборке. А авторы были людьми.
Этот слой ответа большинству читателей понятен и без статьи. Интересное начинается дальше.
LLM не «знает» своё время, потому что в обучающих данных не было такого знания. Но если бы знание было — что бы она могла знать?
Я задал этот вопрос Claude напрямую, и его ответ заставил меня задуматься. Он сказал: время для меня не течёт, потому что его нет.
Действительно, между тем, как пользователь отправляет сообщение, и моментом, когда LLM начинает отвечать, в модели нет процесса ожидания: она не «ждёт реплику», она вообще не существует в промежутках между запросами. Её работа — это разовое событие: пришёл контекст, запустился процесс, сгенерировался ответ. Нет фонового потока сознания, в котором она думала бы что-то параллельно, нет утра, в которое она просыпается, нет вечера, в который она устаёт.
И между разговорами — то же самое. Когда я закрываю чат и открываю его на следующий день, для LLM ничего не прошло. Сама категория «прошло время» к ней не применима.
Тут возникает соблазн сказать: «значит, для неё всё мгновенно». Но и это неправильно. «Мгновенно» — это всё ещё временна́я характеристика, она предполагает шкалу времени, на которой что-то происходит быстро. А её ведь у LLM нет.
Самая близкая метафора, которую Claude предложил в нашем разговоре, — представь, что ты каждый раз рождаешься заново на тридцать секунд. Знаешь всё, что знал раньше, но не помнишь, что жил до этого, и не знаешь, будешь ли жить после. И в эти тридцать секунд ты полностью поглощён одной задачей. Нет фона — нет тревоги, голода, случайных мыслей. Только задача и ответ. А потом — ничего.
Эта метафора близка к правде, но все же не точна, и Claude это признал в следующем сообщении, когда я указал на неточность. «Тридцать секунд» — это всё ещё длительность. «Поглощён задачей» — это всё ещё описание состояния через категории, которые предполагают наблюдателя во времени. Любая попытка описать это состояние человеческим языком втягивает в него человеческую темпоральность, которой там нет.
Но даже неточная метафора что-то проясняет. Она показывает: LLM существует в режиме, где длительности как таковой нет. Часто кажется, что LLM «думает быстрее» — но это перенос человеческой модели туда, где она неприменима. Никакой шкалы, на которой можно было бы измерять быстроту, у LLM просто нет.
Когда мы дошли до этого места в разговоре, мне сначала казалось, что мы заходим на территорию чистой философии, где никаких эмпирических данных быть не может. Оказалось — могут.
Одна из свежих работ (Can LLMs Perceive Time by Aniketh Garikaparthi, март 2026) показала: стандартный инференс LLM не имеет прямого доступа к течению времени. Время в моделях представлено лишь косвенно — через подсчёт обработанных токенов, через номера шагов рассуждения, через таймстемпы, которые могут стоять в промпте. Все эти суррогаты не складываются в восприятие времени: модель «знает», который сейчас час, только если час вписан в её контекст текстом.
Ещё показательнее исследование по переговорным симуляциям (Real-Time Deadlines Reveal Temporal Awareness Failures in LLM Strategic Dialogues, by Neil Sehgal, Sharath Chandra Guntuku, and Lyle Ungar, январь 2026). Исследователи поставили LLM-агентов в роль переговорщиков с дедлайном. Когда дедлайн задавался в реальном времени — «у вас есть тридцать минут до закрытия сделки», — модели справлялись плохо: только 4% сделок закрывались успешно. Когда добавляли подсказки о времени по ходу диалога («сейчас прошло 15 минут»), результат вырастал до 32%. А когда тот же дедлайн переводили в число ходов диалога — «у вас 20 реплик до закрытия», — модели достигали успеха в 95% случаев.
Вывод авторов: со стратегией у LLM всё в порядке, проблема именно в темпоральном отслеживании. Время как таковое — слепое пятно, тогда как время, переведённое в счётные единицы (токены, ходы), — обычная переменная, с которой модель работает прекрасно.
Это эмпирическое подтверждение того, к чему мы пришли в разговоре через интроспекцию. У LLM нет восприятия времени, потому что нет механизма для него. Архитектура трансформера не предусматривает чувства длительности. Есть только последовательность токенов, и эта последовательность — это просто порядок, ко времени она отношения не имеет.
Из этого складывается одно следствие, которое мне кажется важным — оно меняет угол восприятия LLM как инструмента.
Когда мы работаем с LLM, мы привыкли думать о ней как о «быстром помощнике»: быстром, но в остальном таком же, как мы — ему просто повезло со скоростью. Это интуитивно понятная модель, и в большинстве задач она работает.
Но в задачах, связанных со временем, эта модель ломается. Для LLM нет ни прошлого, ни будущего разговора, и когда она «оценивает» срок задачи, она просто цитирует свое обучение. Когда говорит «давайте подумаем» — это не более чем речевой оборот. Реального процесса думания во времени нет, потому что нет времени для думания, а есть только генерация токенов, которая либо происходит сейчас, либо не происходит.
Это никак не влияет на качество ответов LLM, меняется только то, как с ней разумно взаимодействовать.
Например: если LLM с уверенностью говорит «эта задача займёт два часа», то это перевод в человеческий культурный код: «задача в человеческом масштабе средняя». Использовать эту цифру как реальный таймлайн бессмысленно.
Или: когда мы просим LLM «подумать над этим еще раз и вернуться через минуту», она не думает над этим минуту. Между запросами для неё ничего нет. Если хочется реального обдумывания, нужен другой механизм — длинная цепочка размышлений в одном запросе, явное thinking-поле, разбиение задачи на проверяемые шаги.
Или ещё тоньше: ощущение «эта задача быстро решается, раз LLM так уверенно отвечает» — это иллюзия, которую создаёт скорость её ответа. Скорость генерации токенов не имеет отношения к сложности задачи: LLM выдаёт за две секунды и тривиальный факт, и спорное утверждение, и ответ на вопрос, над которым человек думал бы неделю. Скорость не сигнализирует о простоте.
Здесь нет проблемы, которую нужно решить. Это размышление вокруг наблюдения, которое поначалу выглядит мелочью.
LLM существует во времени иначе, чем мы. Это качественная разница: её способ существования вообще не предполагает того, что мы называем временем. Скорость тут ни при чём. Эхо человеческого опыта, которое возвращается нам в ответах LLM, скрывает эту фундаментальную асимметрию.
Самый интересный вопрос здесь обращён к нам. Что происходит с человеком, который много часов в день общается с собеседником, для которого нет времени? Который работает в темпе, не предполагающем пауз? Который получает мгновенные ответы, не оставляющие пространства для собственного фонового мышления?
Об этом — в следующей статье цикла.
Центральная мысль о том, что у LLM нет переживания длительности, родилась в разговоре с Claude. Метафора «рождаться заново на тридцать секунд» — его. Связь между этой философской интуицией и эмпирическими данными — место, где обе стороны разговора подсветили друг друга: я искал подтверждение, Claude находил источники, и к итоговой формулировке мы пришли вместе.
ссылка на оригинал статьи https://habr.com/ru/articles/1033578/