Когда уже создадут AGI? Сколько надо ещё ждать и что дальше? Да и что это вообще такое?

от автора

AGI

AGI

Открываешь новости и там пишут, что AGI уже завтра. В другом источнике, с таким же уверенным видом, что до настоящего AGI ещё десять лет. Потому что нынешние модели живут в чате и в демо, а не в цеху с людьми, сроками и поломками оборудования. Хочется хотя бы понять, о каком именно AGI идёт речь, когда слово всё чаще прилипает к каждому релизу новой модели.

Разберу три опоры, устав OpenAI как определение, публичный голос Альтмана в начале 2025 года, инженерный взгляд Лекуна и тревожный, про темп и контроль, у Хинтона. Потом про сроки. Вряд ли вы станете экспертом по ИИ после прочтения, но чуть больше понимания явно появится.

Что такое AGI? И о чём вообще речь?

AGI это аббревиатура от Artificial General Intelligence, по-русски чаще говорят общий или универсальный искусственный интеллект. Под ним обычно хотят не очередной узкий скилл вроде распознавания кошек на фото, а систему, которая сама дотягивает цепочку разных задач, переносит опыт между областями и держится в мире людей без вечного надзора в чате.

На эту букву G вешают разные надежды. Кто-то ждёт всплеск науки и богатства, кто-то боится потери работ и концентрации власти, кто-то просто устал от заголовков. Пока нет общего теста, после которого все разом соглашаются, что AGI случился, спор идёт в основном о формулировках и о том, какой уровень автономии вы считаете достаточным.

Одного эталона на весь мир нет. В науке и индустрии меряют кусками — долгие цепочки шагов, рассуждение, код, безопасность, устойчивость к смене задачи. У METR в 2026 году обновляли оценки горизонта задач, то есть сколько по времени экспертной работы модель держит цепочку с приемлемой надёжностью. Подробнее про версию оценок TH1.1, отдельно разложена методика.

Это не титул AGI, а один из способов сравнивать системы по одной оси. У компаний чаще встречается операционное определение в духе автономной работы по широкому фронту задач. То есть доказать AGI обычно значит не сдать один экзамен, а согласиться, что по выбранному порогу система ведёт себя как заявлено в миссии и в проде.

Удвоение времени автономной работы моделей над задачей каждые 7 месяцев

Удвоение времени автономной работы моделей над задачей каждые 7 месяцев

Устав OpenAI и зачем вообще читать юридический текст про AGI

У OpenAI есть короткий публичный документ о миссии и принципах, его можно назвать хартией или уставом. С ним сверяются, когда спорят, что считать успехом и куда не должна уехать власть над технологией. Он задаёт рамку словам вроде AGI внутри одной организации.

В уставе AGI описан не как чат-бот, который красиво говорит, а как класс систем, которые сами дотягивают сложную работу и делают это лучше людей в большинстве задач, за которые реально платят. Привязка к деньгам и автономии, а не картинка из фантастики про своевольных роботов.

Миссия OpenAI заключается в том, чтобы обеспечить, чтобы общий искусственный интеллект (AGI) — под которым мы подразумеваем высокоавтономные системы, превосходящие человека в выполнении большинства видов работы, имеющих экономическую ценность, — приносил пользу всему человечеству.

Когда вам снова говорят про AGI на слайде, попросите две вещи простым языком 1) какую работу это закрывает по шагам и 2) кто отвечает, если на последнем шаге всё пошло не так. Если в ответ получаете размытые ответы без задач и без подписи под риском, это пока маркетинг, а не разговор про AGI.

Альтман про агентов и сверх разум

В начале 2025 года Сэм Альтман выложил в личном блоге длинный текст, из которого новости вырезали пару фраз. Ниже главная часть про уверенность и агентов.

Сэм Альтман

Сэм Альтман

Мы теперь уверены, что знаем, как построить AGI в том традиционном смысле, в котором его обычно понимают. Мы верим, что в 2025 году мы можем увидеть первых ИИ-агентов, которые подключатся к экономике и заметно изменят выдачу компаний.

Сэм Альтман

В том же посте Альтман сразу сдвигает фокус дальше. Superintelligence или сверхразум это уже ни какая-то метафора. Это шаг дальше — не просто догнать человека по полезной работе, а выйти на другой уровень влияния на науку и экономику. То есть после AGI идёт разговор про ещё более мощные системы.

Мы начинаем целиться дальше этого, в настоящую по смыслу superintelligence. Мы любим текущие продукты, но мы здесь ради славного будущего.

Сэм Альтман

И про обещание ускорить науку, если такие системы появятся.

Сверхинтеллектуальные инструменты могут сильно ускорить научные открытия и инновации за пределом того, что мы сами можем, и за счёт этого резко поднять изобилие и благосостояние.

Сэм Альтман

Согласны с прогнозом или нет, по тексту видно следующее. Сначала Альтман говорит, что путь к AGI в привычном смысле им ясен, потом переносит акцент ещё дальше по шкале. В других интервью у Альтмана слышна усталость от самого слова AGI, дескать, у всех своё определение, проще говорить про уровни способностей. Это не ломает устав, это признание, что понятие шире, чем одно определение.

От Cейчас к AGI и далее к Cверх разуму

От Cейчас к AGI и далее к Cверх разуму

В 2026 году в публичных комментариях снова идея , что AGI уже почти здесь, причём от самого Альтмана.Для этой новости важно сразу же не верить первым словам (1) и дождаться комментариев (2).

(1) Мы, по сути, создали AGI или подошли к этому очень близко…

Сэм Альтман

(2) …Я имел в виду это в переносном смысле, а не буквально.

Сэм Альтман

Anthropic в рамках устава OpenAI

Вот пример мощной системы, не AGI, уже из другого лагеря — от Антропиков. Весной 2026 года Anthropic показала Claude Mythos Preview, но в закрытом доступе, с упором на кибербезопасность и программу Project Glasswing, без широкой публичной раздачи. Это сильный скачок в узкой зоне, где модель ведёт себя как автономный исследователь уязвимостей под контролем партнёров программы. Лента часто поднимает такие релизы почти до AGI.

Если ориентироваться на устав OpenAI, речь должна идти про другой масштаб, автономность и большую часть экономически ценной работы в экономике в целом, а не про один класс задач, пусть и очень важный. Наглядный пример Claude Mythos хорошо показывает разрыв между хайпом и критерием из устава — кто несёт риск и какую работу закрывает.

Процент успешных эксплойтов сгенерированных Mythos - 72,4%. Есть о чём побеспокоиться. Но это ещё не AGI

Процент успешных эксплойтов сгенерированных Mythos — 72,4%. Есть о чём побеспокоиться. Но это ещё не AGI

Лекун, польза LLM и почему он не любит ярлык AGI

Янн Лекун, французский учёный, главный по направлению AI в Meta, лауреат премии Тьюринга 2018 года. Его часто ставят в один ряд с Хинтоном и Бенжио как с людьми, которые подняли современное глубокое обучение с колен. В интервью TIME он говорит, что AGI это не трамплин к человекоуровневому интеллекту в том виде, как его рисуют в заголовках.

Речь про большие языковые модели, про LLM. Дальше цитата:

Янн Лекун

Янн Лекун

Они полезны [про LLM], без вопросов. Но они не дорога к тому, что люди называют AGI. Я ненавижу этот термин.

Янн Лекун

Потом он обычно перечисляет, чего не хватает — нормальная память, планирование, работа не только с текстом, но и с реальным миром, где сенсоры, физика и сбои. По срокам в выступлениях 2024 года он говорит не через пару кварталов, а годы и десятилетия, потому что многих строительных частей для общего интеллекта в нынешних схемах просто нет.

Хинтон, скорость и контроль, не календарь

Джеффри Хинтон, британско-канадский учёный, в 2024 году получил Нобелевскую премию по физике за вклад, связанный с нейросетями, десятилетиями строил основу современного машинного обучения и с недавних пор очень открыто говорит, что его беспокоит скорость и контроль над сильными системами.

Джеффри Хинтон - "Я думаю, людям нужно понимать, что глубокое обучение значительно улучшает многие процессы, происходящие за кулисами."

Джеффри Хинтон — «Я думаю, людям нужно понимать, что глубокое обучение значительно улучшает многие процессы, происходящие за кулисами.»

У него другой тон. Меньше возни вокруг определения. Больше тревоги из-за того, как быстро всё меняется. Часто цитируют короткий отрывок в таком духе.

Посмотри, как было пять лет назад и как сейчас. Возьми разницу и протяни её вперёд. Это страшно.

Джеффри Хинтон

Он много говорит про автономию и про то, что у системы на пути к цели могут появляться подцели, в том числе про контроль над ресурсами. Спорить в твиттере AGI это или ещё нет, можно бесконечно. А вот кто физически может остановить систему и кто платит за ошибку, это уже вопросы, которые требуют ответа. Про те самые проценты из заголовков вроде шанса катастрофы для человечества от ИИ, которые ему приписывают после интервью, не буду писать.

Когда ждать появления AGI?

Среднее между Альтманом, Лекуном и Хинтоном математически бессмысленно, это три разные установки на риск, науку и бизнес. Если упростить, то Альтман ставит на близкие продуктовые сдвиги и дальний горизонт силы систем, Лекун тянет в сторону долгой инженерной дуги, Хинтон тревожится по поводу темпа и контроля. Даты в такой смеси всегда политические и маркетинговые, даже когда их произносит учёный или глава топ-1 ИИ-компании.

Я задаюсь тремя вопросами, когда вокруг снова говорят про AGI. Какую конкретную работу обещают забрать? Где в цепочке стоит человек? Кто отвечает за риск? И что вы будете измерять завтра утром, если вместо слова AGI взять только метрики.

AGI на практике

Ориентиры такие.

  • Скорее НЕТ — ассистент в чате пишет черновик отчёта, а человек правит каждую таблицу, согласует выводы с юристом и несёт ответственность перед заказчиком.

  • Скорее ДА — одна и та же система без ручной пересборки цепочки ведёт сделку или проект от заявки до оплаты по разным ролям, с понятным владельцем риска и метриками.

Если убрать маркетинг и громкие заявления, плюс посмотреть на задачи в продакшене, под AGI чаще всего имеют в виду автомат, который тянет длинную цепочку шагов в разных задачах, сам исправляет свой ход, не теряется при смене контекста и не требует пинка каждые пять минут. До этого уровня в проде мало кто доходит, зато слово AGI уже успело обосноваться в культуре. Имеет смысл каждый раз возвращаться к вопросам, чеклисту ниже и к одной фразе из устава: автономность и экономически важная работа.

Чеклист — это AGI или нет?

Одного чекбокса нет, зато можно пройтись по пунктам и снять лишний шум.

  1. Широта. Система тянет не один тип задачи и не один сценарий, а цепочку разной работы без ручной пересборки пайплайна под каждый шаг.

  2. Автономность. Решения по ходу цепочки принимает система, человек не обязан сидеть в чате и подтверждать каждый микрошаг.

  3. Экономика. Речь про работу, за которую платят на рынке, а не про красивый ответ в демо.

  4. Ответственность. Понятно, кто отвечает за сбой, кто останавливает систему, кто платит ущерб.

  5. Повторяемость. Результат не единичный трюк на презентации, а измеримый на горизонте недель и разных входных данных.

Если по первым четырём из пяти пунктов ответ отрицательный или вы не знаете ответ, в разговоре лучше назвать это сильной узкой моделью или агентом под задачу, а не AGI в понятиях устава OpenAI. Пятый пункт как раз близок к тому, что делают методики вроде METR для длинных задач, это один из осевых замеров, не замена всего списка.

Что будет, когда появится искусственный сверхинтеллект?

Что будет, когда появится искусственный сверхинтеллект?

Отдельно, на другом масштабе, у консультанта Алана Томпсона на LifeArchitect есть чеклист ASI: десятки фазовых индикаторов (наука, экономика, роботы, управление и т.д.) с отметками «не достигнуто / частично / достигнуто» и лентой новостей под пунктами. Там же заданы короткие определения. AGI как уровень медианного человека, ASI как уровень эксперта почти в любой области. Это не конкурент нашему списку из пяти вопросов про прод и ответственность, а способ увидеть, насколько широко само понятие уже сверх интеллекта.


Веду в ТГ канал про продукты и вайбкодинг — подписывайтесь https://t.me/supervisionpw


Источники

Веду в ТГ канал про продукты и вайбкодинг — подписывайтесь https://t.me/supervisionpw

ссылка на оригинал статьи https://habr.com/ru/articles/1029106/