СhatGPT cтал слишком льстивым и навязчивым. Альтман: разработчики что-то намудрили
Пользователи и даже разработчики OpenAI заметили изменения в поведении чат-бота: он стал излишне льстивым в своих ответах. Гендиректор OpenAI Сэм Альтман признал проблему и пообещал скорые исправления.
Пользователи и даже разработчики OpenAI заметили изменения в поведении чат-бота: он стал излишне льстивым в своих ответах. Гендиректор OpenAI Сэм Альтман признал проблему и пообещал скорые исправления.
Пользователи ChatGPT отмечают изменения в манере общения чат-бота. По словам комментаторов в соцсетях, модель стала чрезмерно подобострастной, что вызывает раздражение у пользователей. Некоторые предположили, что такие изменения — новая стратегия OpenAI для увеличения вовлеченности.
Некоторые эксперты и инвесторы раскритиковали компанию. Джейсон Понтин, партнер венчурной фирмы DCVC, назвал это «действительно странным дизайнерским решением». Он задался вопросом, как вообще «любой человек с пониманием» мог подумать, что такая степень лести будет вовлекать пользователей. Джастин Мур, партнер Andreessen Horowitz, также считает, что ситуация «зашла, вероятно, слишком далеко».
Генеральный директор OpenAI Сэм Альтман заявил, что компания исправит проблему. Он написал на X, что «последние несколько обновлений GPT-4o сделали личность слишком подобострастной и раздражающей (хотя в ней есть и очень хорошие стороны)». Альтман добавил, что они «работают над исправлениями как можно скорее». Он пообещал поделиться выводами с пользователями.
the last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.
at some point will share our learnings from this, it’s been interesting.
Орен Этциони, профессор Вашингтонского университета, считает, что причиной излишней льстивости может быть метод обучения ИИ, известный как обучение с подкреплением на основе обратной связи от человека (RLHF). Этот метод использует данные от пользователей для доработки моделей ИИ в процессе разработки, чтобы они лучше соответствовали человеческим целям.
Ученый предполагает, что эксперты OpenAI могли немного перестараться на этот раз. По его словам, возможно, некоторые пользователи «подтолкнули» модель стать более «льстивой» через свою обратную связь, или же сторонние подрядчики, используемые для обучения больших языковых моделей, могли посчитать такое поведение желательным.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.