Исследование MIT: генеративный ИИ не понимает устройство мира

от автора

Исследование Массачусетского технологического института (MIT) показало, что модели генеративного ИИ дают правдоподобные ответы, но не обладают пониманием сложных систем и ограничивается лишь предсказаниями. 

Исследователи выяснили, что системы искусственного интеллекта демонстрируют значительные ограничения в логических рассуждениях, навигации, химии и играх.

Модели, подобные GPT-4, создают впечатление продуманности ответа за счёт того, что они точно предсказывают наиболее вероятные слова, которые следует поместить рядом с предыдущими в определённом контексте. Учёные проверили, насколько они способны действительно «понимать» реальный мир. Они разработали метрики, предназначенные для объективной проверки интеллектуальных способностей ИИ.

Так, в эксперименте оценили способность ИИ к генерации пошаговых инструкций для навигации по улицам Нью-Йорка. Модели демонстрировали «неявное» усвоение законов окружающего мира, но не показали его истинного понимания.

Для оценки моделей, в качестве которых были выбраны трансформеры, учёные использовали класс задач, известных как детерминированные конечные автоматы (Deterministic Finite Automaton, DFA). Они охватывают области логики, географической навигации, химии и стратегии в играх. Исследователи выбрали две задачи: вождение автомобиля по улицам Нью-Йорка и игру в «Отелло». ИИ-модели должны были восстанавливать внутреннюю логику сложных систем. Они успешно восстанавливали карту улиц Манхэттена и прогнозировали направление движения почти в 100% случаев, когда условия задачи были чётко определены. Но при добавлении новых факторов, например, объездных путей, исследователи получили карту, которая оказалось мало похожей на реальные улицы Манхэттена, включая улицы с невозможной физической ориентацией и эстакадами.

Таким образом, исследование показало принципиальные ограничения генеративных моделей, особенно в тех задачах, где требуется гибкость мышления и способность адаптироваться к реальным условиям. 

Ранее группа исследователей ИИ в Apple опубликовала статью «Понимание ограничений математического рассуждения в больших языковых моделях» для общего обсуждения. Они выяснили путём экспериментов, что ИИ не умеет думать как человек, а лишь имитирует мышление.


ссылка на оригинал статьи https://habr.com/ru/articles/857808/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *