Исследование Массачусетского технологического института (MIT) показало, что модели генеративного ИИ дают правдоподобные ответы, но не обладают пониманием сложных систем и ограничивается лишь предсказаниями.
Исследователи выяснили, что системы искусственного интеллекта демонстрируют значительные ограничения в логических рассуждениях, навигации, химии и играх.
Модели, подобные GPT-4, создают впечатление продуманности ответа за счёт того, что они точно предсказывают наиболее вероятные слова, которые следует поместить рядом с предыдущими в определённом контексте. Учёные проверили, насколько они способны действительно «понимать» реальный мир. Они разработали метрики, предназначенные для объективной проверки интеллектуальных способностей ИИ.
Так, в эксперименте оценили способность ИИ к генерации пошаговых инструкций для навигации по улицам Нью-Йорка. Модели демонстрировали «неявное» усвоение законов окружающего мира, но не показали его истинного понимания.
Для оценки моделей, в качестве которых были выбраны трансформеры, учёные использовали класс задач, известных как детерминированные конечные автоматы (Deterministic Finite Automaton, DFA). Они охватывают области логики, географической навигации, химии и стратегии в играх. Исследователи выбрали две задачи: вождение автомобиля по улицам Нью-Йорка и игру в «Отелло». ИИ-модели должны были восстанавливать внутреннюю логику сложных систем. Они успешно восстанавливали карту улиц Манхэттена и прогнозировали направление движения почти в 100% случаев, когда условия задачи были чётко определены. Но при добавлении новых факторов, например, объездных путей, исследователи получили карту, которая оказалось мало похожей на реальные улицы Манхэттена, включая улицы с невозможной физической ориентацией и эстакадами.
Таким образом, исследование показало принципиальные ограничения генеративных моделей, особенно в тех задачах, где требуется гибкость мышления и способность адаптироваться к реальным условиям.
Ранее группа исследователей ИИ в Apple опубликовала статью «Понимание ограничений математического рассуждения в больших языковых моделях» для общего обсуждения. Они выяснили путём экспериментов, что ИИ не умеет думать как человек, а лишь имитирует мышление.
ссылка на оригинал статьи https://habr.com/ru/articles/857808/
Добавить комментарий