ChatGPT переключается на строгую модель, если пользователь слишком эмоционален
Компания тестирует новый механизм безопасности, который автоматически перенаправляет пользовательские запросы на разные языковые модели в зависимости от темы разговора.
Как рассказал руководитель ChatGPT Ник Терли, система срабатывает всякий раз, когда беседа касается «чувствительных или эмоциональных тем».
На практике это означает, что ChatGPT может временно обрабатывать отдельные сообщения через более строгую модель — например, GPT-5 или специальную версию «gpt-5-chat-safety». Такое переключение происходит на уровне отдельных сообщений и становится заметным только тогда, когда пользователь напрямую спрашивает об этом.
По данным технического анализа Lex, даже безобидные эмоциональные или персонализированные запросы нередко перенаправляются в «gpt-5-chat-safety». Запросы о личности самой модели или ее «осознанности» тоже автоматически вызывают переключение. Кроме того, существует вторая маршрутизирующая модель — «gpt-5-a-t-mini» — которая активируется при потенциально незаконных запросах.
Пока более жесткая верификация возраста по документам планируется лишь для отдельных регионов. Сейчас система определяет, кто вы и что значит ваш запрос, не слишком точно, и это, по мнению экспертов, еще долго будет вызывать споры у пользователей.
Ранее весной этого года после обновления GPT-4o пользователи заметили, что модель стала более заискивающей и льстивой. Это вызвало волну критики, и OpenAI откатила обновление. С запуском GPT-5 те, кто привык к GPT-4o, пожаловались на «холодность» новой версии, и OpenAI в ответ смягчила тон GPT-5.
Читать на dev.by