Вышел DeepSeek V4. Почему это очень плохо для США?

от автора

DeepSeek выпустили V4 с открытыми весами, на уровне frontier-моделей — и в разы дешевле Opus 4.7 или GPT-5.5. R1 в своё время обвалил рынок на 20% за ночь. V4 — масштабнее.

DeepSeek V4 Pro — это 1,6 триллиона параметров, mixture of experts (MoE), 49 млрд активных параметров и контекст в 1 миллион токенов. V4 Flash — рабочая лошадка: 284 млрд параметров суммарно, 13 млрд активных. Обе модели обучены примерно на 33 трлн токенов. На агентских бенчмарках кода, MMLU Pro, GPQA Diamond, SWE-bench Verified — V4 рядом с Opus 4.7 и GPT-5.5. Немного отстаёт, но совсем немного.

Вот в чём дело.

Большинству задач не нужен абсолютный frontier. Компании не решают сложнейшие научные задачи — они ведут бизнес. Представьте: вы CEO, смотрите на GPT-5.5 по $30 за миллион выходных токенов, на Opus 4.7 по похожей цене — и тут DeepSeek в разы дешевле, open source, его можно дообучать, хостить где угодно, контролировать точечно. Математика очевидна.

Здесь и начинается проблема.

Дженсен Хуанг говорил: Китай всё равно построит свои чипы и модели, так пусть хоть на американских GPU (NVIDIA). Логика работала. Теперь та же логика работает наоборот: если американские компании строят AI-стратегию на китайском open source — это геополитический риск. Если китайские лабы сменят архитектуру или отрежут доступ, положение окажется незавидным.

Два отдельных сюжета.

Экспортный контроль — работает или нет? И да, и нет. Да — потому что DeepSeek открыто ограничен в вычислениях: их собственный whitepaper говорит, что Pro-сервис сильно ограничен по мощностям до второго полугодия, когда подрастут supernodes. Нет — потому что именно это ограничение вынудило их инвестировать в алгоритмы. Они нашли способы обучать и запускать V4 в разы дешевле даже на порезанных GPU.

Дистилляция и кража моделей. Anthropic несколько недель назад выпустил отчёт, вчера его поддержало правительство США: иностранные структуры, в первую очередь китайские, ведут промышленные кампании по дистилляции американских AI-систем. Но если смотреть на цифры в отчёте Anthropic — у DeepSeek 150 000 диалогов. У Moonshot — 3,4 млн. У Minimax — 13 млн. 150K не объясняют такой уровень качества. Плюс они открыли весь код с подробным whitepaper, где написано, как именно это сделано. Не складывается.

Теперь шире.

В AI в США вкладываются триллионы долларов — быстрейший инфраструктурный buildout в истории. Этот капитал требует возврата. Если глобальный корпоративный спрос уходит на китайский open source, потому что он достаточно хорош и намного дешевле, — возврат не приходит. А на AI уже поставили целую экономику.

Есть и культурный пласт. Социальные сети пришли из США — это позволяло влиять на нарратив во многих точках мира. Теперь представьте обратное: все сидят на китайских моделях, и именно они определяют, что модели могут говорить, а что нет. Open source позволяет вносить правки, но культурные установки, вшитые в modeli, никуда не исчезнут. Это вопросы, на которые придётся отвечать.

Что дальше — два направления. США нужно гораздо активнее работать с open source. Американские frontier-лабы закрытые, за исключением Google — но даже Google делает небольшие открытые модели, не уровня DeepSeek V4. И даже если закрытость останется, OpenAI и Anthropic должны дешеветь быстрее. Потому что корпоративные клиенты считают деньги — и сейчас математика не в пользу американских моделей.

DeepSeek не догнал Америку. Они сделали достаточно хорошее, отдали бесплатно — и многие американские компании это предложение примут.

Русскоязычное сообщество про AI в разработке

Друзья! Перевод этой статьи подготовила команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-агентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь, чтобы быть в курсе и ничего не упустить!

ссылка на оригинал статьи https://habr.com/ru/articles/1028032/