Націсні на качку: GitHub Copilot дадаў «другое меркаванне» ад ШІ – код стаў дакладнейшы
Кампанія прадставіла новую эксперыментальную функцыю ў GitHub Copilot CLI — інструмент Rubber Duck, які дае «другое меркаванне» ад штучнага інтэлекту пры напісанні кода.
Кампанія прадставіла новую эксперыментальную функцыю ў GitHub Copilot CLI — інструмент Rubber Duck, які дае «другое меркаванне» ад штучнага інтэлекту пры напісанні кода.
Распрацоўшчыкі тлумачаць, што адна ШІ-мадэль можа дапускаць сістэмныя памылкі праз уласныя абмежаванні. Таму Copilot цяпер можа падключаць другую мадэль з іншай сям'і, каб яна правярала план і код перад выкананнем. Напрыклад, калі асноўны агент працуе на базе Claude, то праверку выконвае мадэль узроўню GPT-5.4.
Паводле дадзеных GitHub, такі падыход значна паляпшае якасць працы. У тэстах на складаных задачах (уключаючы праекты з некалькімі файламі і доўгімі ланцужкамі дзеянняў) звязка Claude Sonnet з Rubber Duck закрыла каля 74,7% разрыву па эфектыўнасці з больш магутнай мадэллю Claude Opus. На самых складаных задачах дакладнасць рашэнняў вырасла на 3,8–4,8%.
Інструмент дапамагае выяўляць тыповыя памылкі, якія ШІ часта прапускае: архітэктурныя пралікі, лагічныя багі і канфлікты паміж файламі. Напрыклад, сістэма знаходзіла выпадкі, калі код запускаў планавальнік, які адразу завяршаўся, ці незаўважна перазапісваў дадзеныя ў цыкле.
Rubber Duck уключаецца не пастаянна, а ў ключавыя моманты: пасля складання плана, пасля складанай рэалізацыі ці перад запускам тэстаў. Таксама распрацоўшчык можа выклікаць праверку ўручную.
Функцыя ўжо даступна ў эксперыментальным рэжыме праз каманду `/experimental`. У GitHub лічаць, што такі «перакрыжаваны аўдыт» мадэляў можа стаць новым стандартам для распрацоўкі з ШІ, асабліва па меры ўскладнення задач і росту ролі агентных сістэм.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.