Айцішнік напісаў першы беларускамоўны посткіберпанк-раман. Пра што?
Support us

OpenAI объяснила, почему чат-боты галлюцинируют

OpenAI опубликовала исследование о «галлюцинациях» у больших языковых моделей, на которых строятся чат-боты, когда они выдают придуманную информацию за действительную. Проблемы с фактами есть даже у популярных сервисов, включая GPT-5 и Claude.

3 комментария

OpenAI опубликовала исследование о «галлюцинациях» у больших языковых моделей, на которых строятся чат-боты, когда они выдают придуманную информацию за действительную. Проблемы с фактами есть даже у популярных сервисов, включая GPT-5 и Claude.

Главная причина, по OpenAI, в том, как обучают модели и как устроены бенчмарки. Моделям выгоднее сделать неверную догадку, чем признать, что они не знают ответ. Так они с большей вероятностью получат вознаграждение, к которому стремятся.

Одни модели играют в угадайку лучше, чем другие. Ранее OpenAI отмечала, что модели Claude, например, в случае неуверенности чаще стараются не давать неточные ответы, хотя это и ограничивает полезность сервиса.

«Галлюцинации распространены из-за того, как устроены методы оценки языковых моделей: их натаскивают хорошо сдавать тесты. А угадывание в ситуации неопределённости только улучшает результат», — отмечают исследователи.

По сути, модели всегда в режиме экзамена. И если люди в реальной жизни учатся понимать, что иногда лучше признать неуверенность, то моделей за неуверенность наказывают — для них всё чёрно-белое, правильное или неправильное.

Решить проблему исследователи предлагают корректировкой и унификацией тестов и метрик для оценки моделей. Нужно убрать наказание за воздержание от ответа при неуверенности и практики, которые поощряют гадания.

ИИ-модели которые меньше всего «галлюцинируют»
ИИ-модели, которые меньше всего «галлюцинируют»
По теме
ИИ-модели, которые меньше всего «галлюцинируют»
OpenAI признала что её новая модель галлюцинирует в 37% случаев. Но это хорошо
OpenAI признала, что её новая модель галлюцинирует в 37% случаев. Но это хорошо
По теме
OpenAI признала, что её новая модель галлюцинирует в 37% случаев. Но это хорошо
Читайте также
Три года с ChatGPT. Как исскуственный интеллект стал моим стилистом, терапевтом и преподавателем
Три года с ChatGPT. Как исскуственный интеллект стал моим стилистом, терапевтом и преподавателем
Три года с ChatGPT. Как исскуственный интеллект стал моим стилистом, терапевтом и преподавателем
Вот уже три года я каждый день общаюсь с ChatGPT. Он стал незаменимым помощником в изучении языка и даже помог сформировать собственный стиль в одежде. Кажется, из бездушного робота превратился в близкого спутника. В этой колонке я делюсь своим опытом использования ChatGPT в повседневных задачах и рассказываю, как искусственный интеллект помогает мне экономить время и энергию.
Вы напугали OpenAI: Альтман сказал сотрудникам, что свежие релизы Google могут создать проблемы для стартапа
Вы напугали OpenAI: Альтман сказал сотрудникам, что свежие релизы Google могут создать проблемы для стартапа
Вы напугали OpenAI: Альтман сказал сотрудникам, что свежие релизы Google могут создать проблемы для стартапа
Глава Google DeepMind: будущее ИИ — за «мировыми моделями»
Глава Google DeepMind: будущее ИИ — за «мировыми моделями»
Глава Google DeepMind: будущее ИИ — за «мировыми моделями»
Google обновила Nano Banana: генератор теперь создаёт постеры и инфографику
Google обновила Nano Banana: генератор теперь создаёт постеры и инфографику
Google обновила Nano Banana: генератор теперь создаёт постеры и инфографику

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

2

в OpenAI сознательно гонят не раскрывая того как устроены ИИ классификаторы - это классификаторы и никакого интеллекта там нет :)

https://www.youtube.com/watch?v=l-9ALe3U-Fg
https://www.youtube.com/watch?v=5eqRuVp65eY

https://www.youtube.com/@WelchLabsVideo/videos

1

Они будут до последнего придумывать истории для хомячков, все просто - это способ получить инвестиции, т.е. перераспределить деньги. Конкретно те люди которые раздувают эту тему - профессиональные аферисты, цель вложить в такие стартапы на ранней стадии, потом выйти в прибыль на следующих раундах. Платят за это обычные люди по всему мирку которые откладывают деньги в пенсионные и другие фонды.
Эти цикли происходят каждые N лет. Сейчас рассказывают что еще немного и появится что-то называемое ИИ которое заменит человека - хотя понятно что текущая технология не является ИИ. До этого был бум блокчейна, все должно было быть на блокчейне. Еще была бигдата, которая должна была быть везде.
В общем это все очередные нанотехнологии. Найдена некоторая полезная функция, но аферисты пытаются убедить что там что-то глубже.
А еще есть всякие медиа, которые полезные новости найти не в состоянии и цель которых просмотры. По этому как только появляется очередная нанотехнология они пишут про это по несколько бессмысленных статей на день.

0

это классификаторы

Ну, и что это объясняет? Почему классификаторы не могут быть интеллектом? Что вообще значит "классификатор" в контексте штуки, с которой можно разговаривать на любые темы? Если уж на то пошло, то классификация - разделение на группы, а трансформер продолжает цепочку токентов новыми токенами.