
Полное имя билда: Kimi K2 0905.
Модель обходит даже Claude 4 Sonnet почти по всем бенчам. Аналогично и с Gemini 2.5 Pro.
-
Веса — клик
-
Отчёт — клик (больше бенчей внутри)
Что важно из техчасти
-
Архитектура: Mixture‑of‑Experts, 32B активных параметров, ~1T total.
-
Обновление 0905: поддержка agentic coding + контекст до 256K.
-
Релизы:
-
Kimi-K2-Base— база для дообучения. -
Kimi-K2-Instruct— версия для чатов и агентов (быстрая, без «long thinking»).
-
-
Тренировка: 15.5T токенов, оптимизатор MuonClip (qk‑clip) — стабилизирует обучение и убирает всплески логитов внимания.
-
Оптимизация архитектуры: меньше голов для длинного контекста, больше разреженности в MoE, близко к DeepSeek‑V3.
-
-
Агентность: встроенный тул‑юзинг (MCP и синтетические инструменты), генерация агентных данных + общий RL с self‑judge (работает и на проверяемых задачах, и на творческих).
Бенчи (все — non-thinking режим)



Примечания из отчёта: Tau2 — взвешенное среднее; на Swe‑Bench Multilingual сравнивали с Claude Sonnet (Opus пропустили из‑за цены); подчёркнутые/жирные — SOTA, часть метрик взята из техрепортов моделей.
Крутая основа для агентов
Модель можно подключать к своим инструментам без ручного прописывания сценариев. Примеры в отчёте: анализ зарплат с визуализациями, генерация сайтов и планировщиков, автоматизация через терминал, даже прототип Minecraft на JS.
ссылка на оригинал статьи https://habr.com/ru/articles/944234/
Добавить комментарий