Сегодня DeepSeek опубликовали две новые модели: V4-Pro и V4-Flash. Обе работают по архитектуре Mixture-of-Experts, веса доступны на Hugging Face под MIT-лицензией.

V4-Pro содержит 1,6 триллиона параметров. Контекстное окно — один миллион токенов. При этом модель потребляет около 27% вычислений от того, что требовалось предшественнику DeepSeek-V3 при аналогичном контексте.
V4-Flash меньше — 284 миллиарда параметров с 13 активными — и ещё экономичнее: примерно 10% FLOPs и 7% KV-cache по сравнению с V3. Контекст тот же — миллион токенов.
Обе модели поддерживают три режима рассуждения: Non-think для быстрых задач, Think High и Think Max для сложного планирования. По заявлению разработчиков, Flash в режиме Think Max по ряду задач приближается к Pro.

На агентных кодинг-бенчмарках V4-Pro конкурирует с Claude Opus 4.6 и Sonnet 4.5. На Codeforces рейтинг модели — около 3206. В задачах на знание мира чуть уступает Gemini Pro 3.1.
Цены на API: V4-Flash — $0,14 за миллион входных токенов, V4-Pro — $1,74. Для сравнения, топовые закрытые модели стоят в разы дороже. Есть ночная скидка 50% по пекинскому времени.
Мультимодальность пока отсутствует — поддержка изображений и видео анонсирована на вторую половину 2026 года. Модели обучены на примерно 32 триллионах токенов и оптимизированы под чипы Huawei Ascend.
Доступно уже сейчас: чат DeepSeek, OpenRouter, Hugging Face.
Русскоязычное сообщество про AI в разработке

Друзья! Эту новость подготовила команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-агентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь, чтобы быть в курсе и ничего не упустить!
ссылка на оригинал статьи https://habr.com/ru/articles/1027306/