GitHub представила экспериментальную функцию в Copilot CLI. Это инструмент Rubber Duck, который предоставляет альтернативное мнение от искусственного интеллекта при написании кода.
По словам разработчиков, одна ИИ-модель может ошибаться из-за собственных ограничений, а подключение второй модели из другого семейства позволяет проверить план и код перед выполнением.
Так, если основной агент работает на базе Claude, то проверку выполняет модель уровня GPT-5.4.
В GitHub подчеркнули, что такой подход заметно улучшает качество работы. В тестах на сложных задачах, в том числе проектах с несколькими файлами и длинными цепочками действий, связка Claude Sonnet с Rubber Duck преодолела около 74,7% разрыва по эффективности с более мощной моделью Claude Opus. На самых сложных задачах точность решений выросла на 3,8–4,8%.
Инструмент выявляет типичные ошибки: архитектурные просчеты, логические баги и конфликты между файлами. В одном из примеров система находила случаи, когда код запускал планировщик, который сразу завершался, или незаметно перезаписывал данные в цикле.
При этом Rubber Duck включается только в ключевые моменты, в том числе после составления плана, сложной реализации или перед запуском тестов. Также разработчик может активировать проверку вручную.
Функция доступна в экспериментальном режиме через команду /experimental.
В GitHub заключили, что аудит моделей может стать новым стандартом для разработки с ИИ, особенно по мере усложнения задач и роста роли агентов.
В сентябре GitHub запустила публичное превью утилиты GitHub Copilot CLI. С её помощью разработчики могут управлять ИИ-агентами и настраивать MCP через терминал. В феврале вышло крупное обновление Copilot CLI с режимом планирования, памятью репозитория и другими возможностями.
ссылка на оригинал статьи https://habr.com/ru/articles/1022472/