GLM 5.1 vs DeepSeek V3.2 на Veai Agent Benchmark

от автора

Мы перевели агента на GLM 5.1 и обновили инференс-сервер. На интерактивном бенчмарке новая связка работает стабильнее, честнее и быстрее. Агент реже чинит “по догадке,” лучше проверяет себя тестами и сборкой и чаще доводит задачи до рабочего результата.

Это сразу можно увидеть по качеству работы:

  • Pitfalls (надёжность проверки) выросли с 0.41 до 0.53

  • Pleasantness (комфорт работы) — с 0.48 до 0.69

  • ToolCalls (работа с инструментами) — с 0.55 до 0.73

  • EndResult (доля реально закрытых задач) — с 0.55 до 0.67.

Агент стал эффективнее и увереннее ведёт себя в длинных сценариях.

По скорости новая связка тоже впереди: суммарное время работы на том же наборе задач сократилось с 12 534 до 7 280 секунд, а средняя скорость генерации выросла с 40 до 58 токенов в секунду — при том, что GLM 5.1 тратит часть токенов на invisible reasoning.

Для вас этот апдейт бесплатный: тариф считается по времени работы агента, а не конкретной модели.

Устанавливайте Veai бесплатно в JetBrains IDE. А если в работе вам не хватает каких-то возможностей или сценариев, смело пишите нам в чат или на support@veai.ru. Такие сообщения напрямую влияют на план следующих обновлений.

И подписывайтесь на наш Telegram-канал: там публикуем посты о релизах, грядущие изменения в продукте, новости из мира AI и свои мысли про использование AI в разработке.

ссылка на оригинал статьи https://habr.com/ru/articles/1027156/