Google распрацавала АІ для праверкі фактаў у іншых АІ
Кампанія распрацавала АІ-сістэмы для ацэнкі фактаў на аснове пошукавай выдачы. Яна называецца SAFE: Search Augmented Factuality Evaluator.
Кампанія распрацавала АІ-сістэмы для ацэнкі фактаў на аснове пошукавай выдачы. Яна называецца SAFE: Search Augmented Factuality Evaluator.
Кампанія распрацавала АІ-сістэмы для ацэнкі фактаў на аснове пошукавай выдачы. Яна называецца SAFE: Search Augmented Factuality Evaluator.
Сістэма знаходзіць памылкі ў адказах сэрвісаў на базе вялікіх моўных мадэляў. Такім чынам распрацоўшчыкі спрабуюць вырашыць праблему так званых «галюцынацый»: LLM нярэдка памыляюцца, прыводзячы ў адказах недакладныя даныя і настойваючы на іх праўдзівасці.
Даследчыкі DeepMind стварылі AI-праграму, якая аўтаматычна правярае правільнасць адказаў LLM і выяўляе недакладнасці. Новая мадэль вылучае з вываду нейрасеткі асобныя факты, фармуе запыт пошукавай сістэме і спрабуе знайсці пацверджанне выкладзеных звестак.
Падчас тэстаў SAFE праверыла 16 тысяч адказаў некалькіх сэрвісаў, сярод якіх былі самыя папулярныя Gemini, ChatGPT, Claude і PaLM-2. Затым высновы параўналі з вынікамі пошуку людзей уручную. У 72% выпадкаў высновы SAFE супалі з меркаваннямі людзей. Пры аналізе разыходжанняў у 76% выпадкаў рацыю меў АІ.
Каманда DeepMind апублікавала код SAFE у GitHub, даўшы магчымасць выкарыстоўваць сістэму ўсім ахвотным для павышэння дакладнасці і надзейнасці адказаў LLM-мадэляў.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.