AI нового поколения нуждается в эмоциях, чтобы ставить цели и осознавать последствия

от автора

Янн Лекун, руководитель исследований AI в Meta, выражает скептицизм по поводу недавнего ажиотажа вокруг AGI, утверждая, что интеллект, сравнимый с человеческим, появится не скоро. Лекун считает, что путь к истинному искусственному интеллекту лежит не только через большие языковые модели, но и требует интеграции сенсорного обучения, эмоций и способности моделировать и анализировать мир.

Выступая на панели в Bloomberg Center Джона Хопкинса, Лекун отметил, что достижение общего искусственного интеллекта (AGI) — это вопрос не столетий, а, возможно, десятилетий, хотя и не ближайших. Его слова прозвучали после того, как некоторые специалисты в области AI предположили, что последняя модель OpenAI o3 может быть ранней формой AGI благодаря ее успехам в математике и программировании.

Дискуссии вокруг AGI усложняются из-за отсутствия единого понимания термина. Некоторые считают AGI интеллектом, подобным человеческому, способным к гибкости, в то время как другие, включая OpenAI, полагают, что это способность AI выполнять большинство задач, доступных человеку.

Лекун критикует большие языковые модели (LLM) за недостижение цели из-за недостатка естественных текстовых данных для обучения. Он также указывает на изменение мнений среди сторонников текстовых моделей, включая Илью Суцкевера из OpenAI, который ранее считал масштабирование текстовых моделей путем к AGI, но, похоже, изменил свою точку зрения.

Лекун подчеркивает, что для создания человекоподобного AI необходима интеграция сенсорной информации. Он приводит в пример отсутствие способных домашних роботов, объясняя это ограниченностью интеллекта AI, и именно это он стремится изменить в своем проекте V-JEPA.

Для сравнения Лекун объясняет, что четырехлетний ребенок за 16 000 часов бодрствования обрабатывает столько же визуальной информации, сколько крупные языковые модели — текстовой. Meta собирает видеоданные для улучшения будущих систем AI.

Лекун также считает, что эмоции необходимы для будущих AI-систем для постановки целей и понимания последствий. По его мнению, эмоции должны быть «неотъемлемой частью» дизайна AI, наряду с возможностью моделировать мир и планировать.

Что касается дезинформации, Лекун менее обеспокоен. Он утверждает, что AI не разжигает ненависть, а предлагает инструменты для борьбы с ней, если у борцов с дезинформацией есть доступ к более продвинутым системам AI.

Лекун критикует ранние предупреждения OpenAI о GPT-2, считая их «нелепыми» из-за ограниченных возможностей модели, и указывает, что более мощные системы были доступны без предсказанных негативных последствий.

Источник


ссылка на оригинал статьи https://habr.com/ru/articles/869012/