Китайская Moonshot AI выпустила Kimi K2.6 — open-source мультимодальную модель с фокусом на «долгие» задачи кодинга и автономных агентов. Веса опубликованы на Hugging Face под лицензией Modified MIT, API совместим с форматами OpenAI и Anthropic.

В техническом блоге компания похвасталась, как за 13 часов непрерывной работы и более 1000 вызовов инструментов K2.6 самостоятельно переработала exchange-core — восьмилетний open-source движок биржевого матчинга. Модель проанализировала CPU и allocation flame graphs, перебрала 12 стратегий оптимизации, изменила свыше 4000 строк кода и переконфигурировала топологию ядерных потоков. Итог — +185% к медианной пропускной способности (с 0,43 до 1,24 MT/s) и +133% к пиковой (с 1,23 до 2,86 MT/s).
Похожие кейсы Moonshot приводит и для других сценариев. На Mac K2.6 скачала и развернула Qwen3.5-0.8B, реализовала инференс на Zig — нишевом системном языке, который явно не доминирует в обучающих выборках. За 12 часов, 4000+ вызовов инструментов и 14 итераций скорость генерации выросла с примерно 15 до 193 токенов в секунду — на 20% быстрее, чем LM Studio. Внутренний DevOps-агент Moonshot, построенный на K2.6, отработал автономно 5 суток, занимаясь мониторингом, реагированием на инциденты и операциями над инфраструктурой.
Партнеры по бета-тестам публикуют конкретные цифры. Vercel сообщает о росте больше 50% на собственном Next.js-бенчмарке относительно K2.5. Factory.ai фиксирует +15% по своим метрикам. CodeBuddy в внутренних тестах получила +12% к точности генерации кода, +18% к стабильности на длинном контексте и 96,6% успешных вызовов инструментов. Kilo.ai отдельно отмечает SOTA-уровень при заметно меньшей стоимости.
В агентских и поисковых бенчмарках K2.6 обходит флагманы прошлого поколения. На HLE-Full с инструментами — 54,0 балла против 52,1 у GPT-5.4 (xhigh) и 53,0 у Claude Opus 4.6 (max effort). На DeepSearchQA — 92,5 по f1 и 83,0 по accuracy, оба — лучшие в сравнении. На SWE-Bench Pro — 58,6, выше GPT-5.4, Claude Opus 4.6 и Gemini 3.1 Pro. В «чистом» рассуждении без инструментов модель уступает: на AIME 2026 — 96,4 против 99,2 у GPT-5.4, на GPQA-Diamond — 90,5 против 94,3 у Gemini 3.1 Pro.
Архитектурно K2.6 не отличается от K2.5: MoE на 1 трлн параметров, из них 32 млрд активны на токен, 384 эксперта, контекст 256 тысяч токенов, vision-энкодер MoonViT, native INT4-квантизация. Главное расширение — режим Agent Swarm: 300 субагентов и 4000 координированных шагов вместо 100 и 1500 в K2.5. В качестве research preview Moonshot показывает Claw Groups — режим, где агенты разных пользователей с разных устройств работают совместно под оркестрацией K2.6.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.
ссылка на оригинал статьи https://habr.com/ru/articles/1025740/