Google разработала ИИ для проверки фактов у других ИИ

Компания разработала ИИ-системы для оценки фактов на основе поисковой выдачи. Она называется SAFE: Search Augmented Factuality Evaluator.

Оставить комментарий

Система находит ошибки в ответах сервисов на базе больших языковых моделей. Таким образом разработчики пытаются решить проблему так называемых «галлюцинаций»: LLM нередко ошибаются, приводя в ответах недостоверные данные и настаивая на их истинности.

исследователи DeepMind создали ИИ-приложение, которое автоматически проверяет правильность ответов LLM и выявляет неточности. Новая модель вычленяет из вывода нейросети отдельные факты, формирует запрос поисковой системе и пытается найти подтверждение изложенных сведений.

Во время тестов SAFE проверила 16 тысяч ответов нескольких сервисов, среди которых были самые популярные Gemini, ChatGPT, Claude и PaLM-2. Затем выводы сравнили с результатами поиска людей вручную. В 72% случаев выводы SAFE совпали с мнениями людей. При анализе расхождений в 76% случаев прав был ИИ.

Команда DeepMind опубликовала код SAFE в GitHub, предоставив возможность использовать систему всем желающим для повышения точности и надёжности ответов LLM-моделей.

Google согласилась уничтожить данные о просмотре, собранные в режиме «инкогнито»
По теме
Google согласилась уничтожить данные о просмотре, собранные в режиме «инкогнито»
Чат-боты уничтожат Google? Почему пока рано говорить о победе ИИ 
По теме
Чат-боты уничтожат Google? Почему пока рано говорить о победе ИИ
ИИ поможет пользователям Google спланировать путешествие
По теме
ИИ поможет пользователям Google спланировать путешествие

Читать на dev.by