OpenAI GPT-5, как сообщается, не оправдывает ожиданий. Усилия OpenAI по разработке своей следующей крупной модели, GPT-5, отстают от графика, а результаты пока не оправдывают огромные затраты, согласно новому отчету в The Wall Street Journal.
Это перекликается с более ранним отчетом The Information, предполагающим, что OpenAI ищет новые стратегии, поскольку GPT-5 может не представлять такого большого скачка вперед, как предыдущие модели. Но в истории WSJ содержатся дополнительные детали о 18-месячной разработке GPT-5, кодовое название Orion.
Как сообщается, OpenAI завершила как минимум два крупных обучения, цель которых — улучшить модель, обучив ее на огромных объемах данных. Первое обучение прошло медленнее, чем ожидалось, намекая на то, что более крупное обучение будет как времязатратным, так и дорогостоящим. И хотя GPT-5, как сообщается, может работать лучше, чем его предшественники, он еще не настолько продвинулся, чтобы оправдать стоимость его поддержки.
WSJ также сообщает, что, вместо того чтобы полагаться только на общедоступные данные и лицензионные соглашения, OpenAI также наняла людей для создания свежих данных путем написания кода или решения математических задач. Она также использует синтетические данные, созданные другой её моделью, o1. OpenAI не сразу ответила на запрос о комментарии. Компания ранее заявила, что не будет выпускать модель с кодовым названием Orion в этом году.
ссылка на оригинал статьи https://habr.com/ru/articles/868706/
Добавить комментарий