
Тимоти Гауэрс — обладатель Филдсовской премии и кембриджский профессор — опубликовал в блоге отчет о своем эксперименте с GPT-5.5 Pro: за неполных два часа модель улучшила границу в открытой задаче по аддитивной теории чисел с экспоненциальной до полиномиальной. Уровень итогового результата Гауэрс оценил как «вполне разумную главу диссертации по комбинаторике» — один самостоятельный блок результатов в диссертации PhD-студента. Профессор отдельно подчеркнул, что его собственный математический вклад был нулевым — он только переформулировал чужие задачи в запросы к модели.
Задача такая. Если есть множество A из k целых чисел, его h-кратной суммой называют все числа вида a₁+a₂+…+aₕ, где элементы можно повторять. Возникает естественный вопрос — какого минимального диаметра должно быть исходное A, чтобы получить заранее заданный размер суммы. Эту постановку поднял в своей статье американский математик Мел Натансон, а Гауэрс в качестве предметной работы взял свежий препринт студента MIT Айзека Раджагопала, где верхняя граница на нужный диаметр была экспоненциальной по k. Цель эксперимента — попытаться ее сжать.
На разминке Гауэрс отдал модели простой случай h=2 — за 17 минут GPT-5.5 Pro выдала квадратичную границу взамен экспоненциальной у Натансона. Дальше пошел общий случай и серия из четырех запросов: модель размышляла от 9 до 47 минут на каждом шаге, в сумме около часа сорока минут. Промежуточно граница ужалась с экспоненты от k до экспоненты от k^α при любом α больше 1/2, а на финальной итерации — до полиномиальной вида O(k^{10h³}).
Главное в этой истории — не сами цифры, а реакция Раджагопала. Прочитав препринт, он признал результат корректным не только построчно, но и на уровне идей. Ключевой ход модели был такой: вместо геометрических прогрессий с экспоненциально большими элементами она задействовала h²-диссоциированные множества — конструкцию, восходящую к работам Сингера 1938 года и Бозе с Чоулой 1963 года, но перенесенную в совершенно новый контекст. «Это идея, которой я бы гордился, если бы пришел к ней за неделю-две раздумий», — пишет Раджагопал в гостевой части поста. — «Насколько я могу судить, она полностью оригинальная».
Гауэрс из этого делает несколько выводов. Главный — про обучение. Раньше у научного руководителя был стандартный прием: новичку давали небольшую открытую задачу, на которой тот мог почувствовать вкус настоящего исследования и поверить в себя. Задача была реальная, нерешенная, но достаточно подъемная, чтобы студент справился за несколько месяцев. Теперь такие задачи первой за пару часов решит LLM — и студенту просто нечего будет нести в диссертацию. Планка для оригинального вклада поднялась: надо либо браться за то, что моделям не по зубам, либо работать с моделью в паре, добивая то, с чем она одна не справляется. По прогнозу Гауэрса, к 2029 году, когда защитятся сегодняшние первокурсники, исследовательская математика изменится до неузнаваемости.
Открытый вопрос — что делать с такими результатами на уровне всей сферы. В журнал отправлять бессмысленно, arXiv AI-контент принципиально не принимает. Гауэрс предлагает идею отдельного репозитория с человеческой модерацией или обязательной формализацией доказательств в системах автоматической проверки — чтобы машинно полученные результаты не растворялись в пустоте, но и не загрязняли традиционные каналы.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.
ссылка на оригинал статьи https://habr.com/ru/articles/1033374/