OpenAI паказала мадэль, якая выпраўляе памылкі ў адказах ChatGPT
OpenAI паказала новую мадэль CriticGPT, якая шукае памылкі ў кодзе, згенераваным ChatGPT.
OpenAI паказала новую мадэль CriticGPT, якая шукае памылкі ў кодзе, згенераваным ChatGPT.
OpenAI паказала новую мадэль CriticGPT, якая шукае памылкі ў кодзе, згенераваным ChatGPT.
Мадэль-крытык пабудаваная на базе GPT-4. Яе трэніравалі на наборы фрагментаў кода, у які былі наўмысна дададзеныя багі, каб яна вучылася апазнаваць розныя віды памылак.
CriticGPT мае дапамагаць людзям правяраць код у адказах чат-бота і заўважаць памылкі, якія маглі быць прапушчаныя. Крытыцы CriticGPT анататары аддавалі перавагу перад чалавечай у 63% выпадкаў. А каманды, якія выкарыстоўваюць мадэль, пісалі больш якасныя водгукі ў параўнанні з тымі, якія працавалі самастойна.
Таксама распрацоўшчыкі стварылі новую тэхніку пад назвай Force Sampling Beam Search (FSBS), дзякуючы якой CriticGPT здольная пісаць падрабязнейшыя рэв’ю кода. Яна дазваляе кантраляваць дбайнасць пошуку і тое, як часта мадэль выдумляе праблемы, якіх насамрэч няма.
CriticGPT у перспектыве можа працаваць не толькі з кодам. Даследчыкі апрабавалі мадэль на наборы навучальных даных ChatGPT, якія «скуранымі» правяраючымі былі ацэненыя як бездакорныя. CriticGPT знайшла памылкі ў іх у 24% выпадкаў, і гэтыя памылкі пацвердзілі правяраючыя.
Зрэшты, у CriticGPT, як і ў іншых АІ-мадэляў, здараюцца галюцынацыі. Яна вучылася на адносна невялікіх адказах ChatGPT і можа быць не гатовая да працы з даўжэйшымі і складанейшымі задачамі, з якімі сутыкнуцца АІ-сістэмы ў будучыні. Памылкі ў адказах таксама могуць здарацца і праз няякасную разметку даных людзьмі.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.