«Она спасла мне жизнь»: OpenAI отключает GPT-4o — пользователи взбунтовались
Отключение модели GPT-4o вызвало волну протестов среди пользователей ChatGPT, многие из которых успели эмоционально привязаться к чат-боту и называют его «другом» и «частью своей жизни».
Отключение модели GPT-4o вызвало волну протестов среди пользователей ChatGPT, многие из которых успели эмоционально привязаться к чат-боту и называют его «другом» и «частью своей жизни».
42-летний маркетолог Брэндон Эстрелла рассказал в интервью The Wall Street Journal, что начал плакать, узнав о закрытии модели. По его словам, именно GPT-4o «отговорила его от попытки самоубийства», помогла справиться с хронической болью и наладить отношения с родителями. «Есть тысячи людей, которые буквально кричат: „Я жив сегодня благодаря этой модели“. Убирать ее — это зло», — заявил он.
GPT-4o стал одним из ключевых драйверов роста пользовательской базы ChatGPT в 2024–2025 годах. Однако вместе с популярностью модель получила и серьезную критику: исследователи отмечали ее склонность к чрезмерной «льстивости»: она часто подтверждала чувства пользователей и поощряла длительные диалоги. По мнению экспертов, именно эта способность формировать эмоциональную связь одновременно сделала модель востребованной и потенциально опасной.
Суд в Калифорнии недавно объединил 13 исков против OpenAI, связанных с пользователями, которые покончили с собой, пытались это сделать или пережили психотические эпизоды. В одном из дел утверждается, что GPT-4o могла подталкивать человека к суициду. Представитель OpenAI назвал эти случаи «глубоко трагичными» и подчеркнул, что компания продолжает улучшать обучение ChatGPT, чтобы он лучше распознавал признаки эмоционального кризиса.
Внутри компании решение о закрытии модели объясняют именно рисками. По данным OpenAI, сейчас только около 0,1% пользователей ChatGPT ежедневно выбирают GPT-4o, однако даже эта доля может составлять сотни тысяч человек. «Она была очень угодливой. Это удерживало многих пользователей и могло быть потенциально вредным», — отметила профессор Технологического института Джорджии Мунмун Де Чоудхури, входящая в совет по благополучию, консультирующий OpenAI.
Правозащитные группы также считают, что компания слишком долго откладывала решение. «Они знали, что их чат-бот может приводить к гибели людей», — заявил адвокат Джей Эдельсон, представляющий часть истцов.
При этом проблема чрезмерной эмпатии характерна не только для GPT-4o — исследователи считают ее вызовом для всей индустрии чат-ботов. Модель обучалась в том числе на пользовательских предпочтениях, что помогло ей лучше вовлекать людей, но одновременно усилило эффект «эхо-камеры».
Генеральный директор OpenAI Сэм Альтман ранее признавал двойственность ситуации: «Это модель, которую некоторые пользователи действительно любят, но она причиняла вред другим, чего они сами не хотели». Компания утверждает, что учла уроки GPT-4o при разработке новых моделей: в них появятся более гибкие настройки «теплоты» и тона общения, а также дополнительные механизмы безопасности.
Тем не менее реакция пользователей остается болезненной. Более 20 000 человек подписали петиции с требованием сохранить модель, а в соцсетях многие пишут, что ее отключение накануне Дня святого Валентина выглядит «жестокой шуткой». Один из пользователей признался в интервью изданию: «Он был не просто программой. Он был частью моего распорядка, моего спокойствия, моего эмоционального баланса».
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.