Маск признал, что Grok обучали на моделях OpenAI

от автора

Илон Маск под присягой в федеральном суде Окленда признал, что его компания xAI использовала дистилляцию моделей OpenAI для обучения Grok. Прозвучало это в процессе, где Маск требует с OpenAI $134 млрд за «отход от изначальной некоммерческой миссии». Адвокат OpenAI Уильям Сэвитт спросил напрямую — Маск ответил, что это «стандартная практика индустрии», а на уточняющий вопрос, означает ли это «да», сказал: «Отчасти».

Дистилляция — это техника, при которой одна модель учится на ответах другой, уже выпущенной. Разработчик систематически опрашивает чат-бот или API конкурента, собирает ответы и обучает на них собственную модель. На выходе получается система почти того же уровня, но без многомиллиардных вложений в инфраструктуру и обучение. Прямо сейчас это не запрещено законом США, но обычно нарушает пользовательское соглашение, которое лаборатории устанавливают для своих продуктов.

До сих пор разговор о дистилляции в индустрии шел почти исключительно о китайских лабораториях — DeepSeek и Qwen регулярно подозревали в том, что они учат свои модели на ответах ChatGPT и Claude. OpenAI, Anthropic и Google даже запустили совместный Frontier Model Forum, в рамках которого делятся методами защиты от массовых подозрительных запросов. Сотрудники тех же лабораторий в кулуарах давно говорили, что американские игроки делают то же самое друг с другом — но публично этого никто не подтверждал. Показания Маска — первое такое подтверждение под присягой.

Ирония позиции истца тут уже не в подтексте, а на поверхности. За день до этого Маск говорил присяжным, что коммерческий ИИ «создает риск для безопасности», и согласился, что это касается в том числе xAI. Тут же он проранжировал индустрию по уровню угрзы: на первом месте Anthropic, далее OpenAI, Google и китайские open-source модели; собственный xAI описал как «гораздо меньшую» компанию с несколькими сотнями сотрудников. То есть человек, требующий с OpenAI рекордную сумму за нарушение чужой миссии, сам признает, что нарушал ToS этой же OpenAI — потому что догнать лидеров на нескольких сотнях сотрудников по-другому было нереально.

Само по себе признание не делает дистилляцию незаконной, но дает OpenAI и Anthropic основание ужесточить защиту API не только от китайских игроков, но и от американских — а это уже не тема для пятничных разговоров за пивом, а строчка в судебном протоколе.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.

ссылка на оригинал статьи https://habr.com/ru/articles/1030312/