Google распрацавала АІ для праверкі фактаў у іншых АІ

Кампанія распрацавала АІ-сістэмы для ацэнкі фактаў на аснове пошукавай выдачы. Яна называецца SAFE: Search Augmented Factuality Evaluator.

Пакінуць каментарый

Сістэма знаходзіць памылкі ў адказах сэрвісаў на базе вялікіх моўных мадэляў. Такім чынам распрацоўшчыкі спрабуюць вырашыць праблему так званых «галюцынацый»: LLM нярэдка памыляюцца, прыводзячы ў адказах недакладныя даныя і настойваючы на іх праўдзівасці.

Даследчыкі DeepMind стварылі AI-праграму, якая аўтаматычна правярае правільнасць адказаў LLM і выяўляе недакладнасці. Новая мадэль вылучае з вываду нейрасеткі асобныя факты, фармуе запыт пошукавай сістэме і спрабуе знайсці пацверджанне выкладзеных звестак.

Падчас тэстаў SAFE праверыла 16 тысяч адказаў некалькіх сэрвісаў, сярод якіх былі самыя папулярныя Gemini, ChatGPT, Claude і PaLM-2. Затым высновы параўналі з вынікамі пошуку людзей уручную. У 72% выпадкаў высновы SAFE супалі з меркаваннямі людзей. Пры аналізе разыходжанняў у 76% выпадкаў рацыю меў АІ.

Каманда DeepMind апублікавала код SAFE у GitHub, даўшы магчымасць выкарыстоўваць сістэму ўсім ахвотным для павышэння дакладнасці і надзейнасці адказаў LLM-мадэляў.

Google согласилась уничтожить данные о просмотре, собранные в режиме «инкогнито»
По теме
Google согласилась уничтожить данные о просмотре, собранные в режиме «инкогнито»
Чат-боты уничтожат Google? Почему пока рано говорить о победе ИИ 
По теме
Чат-боты уничтожат Google? Почему пока рано говорить о победе ИИ
ИИ поможет пользователям Google спланировать путешествие
По теме
ИИ поможет пользователям Google спланировать путешествие

Читать на dev.by