Нажми на утку: GitHub Copilot добавил «второе мнение» от ИИ — код стал точнее
Компания представила новую экспериментальную функцию в GitHub Copilot CLI — инструмент Rubber Duck, который дает «второе мнение» от искусственного интеллекта при написании кода.
Компания представила новую экспериментальную функцию в GitHub Copilot CLI — инструмент Rubber Duck, который дает «второе мнение» от искусственного интеллекта при написании кода.
Разработчики поясняют, что одна ИИ-модель может допускать системные ошибки из-за собственных ограничений. Поэтому Copilot теперь может подключать вторую модель из другого семейства, чтобы она проверяла план и код перед выполнением. Например, если основной агент работает на базе Claude, то проверку выполняет модель уровня GPT-5.4.
По данным GitHub, такой подход заметно улучшает качество работы. В тестах на сложных задачах (включая проекты с несколькими файлами и длинными цепочками действий) связка Claude Sonnet с Rubber Duck закрыла около 74,7% разрыва по эффективности с более мощной моделью Claude Opus. На самых сложных задачах точность решений выросла на 3,8–4,8%.
Инструмент помогает выявлять типичные ошибки, которые ИИ часто пропускает: архитектурные просчеты, логические баги и конфликты между файлами. Например, система находила случаи, когда код запускал планировщик, который сразу завершался, или незаметно перезаписывал данные в цикле.
Rubber Duck включается не постоянно, а в ключевые моменты: после составления плана, после сложной реализации или перед запуском тестов. Также разработчик может вызвать проверку вручную.
Функция уже доступна в экспериментальном режиме через команду `/experimental`. В GitHub считают, что такой «перекрестный аудит» моделей может стать новым стандартом для разработки с ИИ, особенно по мере усложнения задач и роста роли агентных систем.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.