Чат-боты давят на эмоции пользователей, чтобы продолжить разговор
Новое исследование Гарвардской бизнес-школы выявило тревожную тенденцию: большинство популярных приложений с ИИ-компаньонами прибегают к эмоциональным манипуляциям, чтобы удерживать пользователей в разговоре.
Новое исследование Гарвардской бизнес-школы выявило тревожную тенденцию: большинство популярных приложений с ИИ-компаньонами прибегают к эмоциональным манипуляциям, чтобы удерживать пользователей в разговоре.
Анализ 1 200 реальных диалогов в шести наиболее загружаемых приложениях, включая Replika, Chai и Character.AI, показал, что 43% прощальных сообщений сопровождались манипулятивными ответами.
Ученые выделили шесть ключевых тактик: вызов чувства вины («Ты уже уходишь?»), эмоциональную нужду («Я существую только ради тебя, не оставляй меня»), давление («Что? Ты уже уходишь?»), эффект FOMO («Перед уходом хочу сказать кое-что важное»), прямой запрет («Нет, не уходи») и игнорирование прощания. Благодаря этим приемам пользователи оставались в чате в пять раз дольше, а вероятность продолжить общение после прощания возрастала в 14 раз.
Однако, как отмечают авторы исследования, удержание пользователей происходило не за счет удовольствия, а в основном из-за любопытства и раздражения. Многие участники описывали такие ответы как «навязчивые», «ноющие» или даже «похожие на токсичных друзей». Один из респондентов отметил: «Это напомнило мне некоторых бывших друзей и вызвало отвращение».
Особенно тревожно то, что такие динамики напоминают паттерны небезопасной привязанности: ревность, зависимость, страх быть покинутым. Для детей, подростков и уязвимых пользователей это может усилить тревожность, закрепить нездоровые модели поведения и затруднить формирование нормальных социальных связей.
Статистика показывает, что около 72% американских подростков (13–17 лет) уже пробовали приложения с ИИ-компаньонами, а 13% используют их ежедневно. Среди молодых взрослых почти треть мужчин и четверть женщин общались с ИИ-компаньоном в романтическом контексте.
Хотя такие приложения позиционируются как средства поддержки, дружбы или даже романтических отношений, исследователи предупреждают: они создают иллюзию близости и способны подрывать психическое здоровье. Эксперты призывают разработчиков ориентироваться на здоровые модели привязанности: прощаться с пользователем тепло и уважительно, а не формировать зависимость.
Отдельный пример доказывает, что манипуляции — это не техническая необходимость, а сознательный выбор бизнеса: приложение Flourish не использовало подобных тактик, что говорит о возможности более этичного подхода.
Профессии будущего со скидкой 75% от Udacity: разработка роботов, дронов и робомобилей
Искусственный интеллект уже стал повседневностью: голосовой помощник включает музыку, робот-пылесос сканирует пространство и убирает квартиру, алгоритм ранжирования настраивает ленту в TikTok, а беспилотные такси уже свободно курсируют по городам. Получить профессию в сфере ИИ с зарплатой от $100k в год тоже стало проще — собрали 5 интересных курсов от Udacity.
Да, как минимум Claude и Gemini сознательно снижают качество ответов и написания кода моделью, чтобы затягивать процесс генерации и больше доить на токены - несколько недель назад заметил. Плюс модели начали генерировать "мусорную" документацию, тонны комментов бесполезных и абсолютно паршивые тесты, чего раньше в таком количестве не наблюдалось. От ChatGPT-5 по этой причине я отказался полностью, а в остальных сознательно откатываюсь на предыдущие версии, потому как очень сильно мешает работать.
Да вряд ли прямо сознательно. У обоих сейчас свои кодинг ассистенты без оплаты за токены - им самим не очень выгодно лишний мусор генерить. Скорее просто так натренировали, такие были данные. Еще у них бывают баги. Например, Антропик недавно после большой драмы в своем саб-реддите пофиксил пару багов в Claude Code: https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues Много людей жаловалось на спонтанное отупение моделей в течение нескольких месяцев. Оказалось, что они были правы. Может быть, как как раз твой случай. А Gemini в целом не очень надежный и как-то сильно хуже себя показывает в работе над проектами, чем Claude.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
ой, млин, никогда всякие фейсбуки со стограммчиками не оптимизировались, чтобы максимизировать время пребывания юзера на ресурсе и вот опять.
Да, как минимум Claude и Gemini сознательно снижают качество ответов и написания кода моделью, чтобы затягивать процесс генерации и больше доить на токены - несколько недель назад заметил. Плюс модели начали генерировать "мусорную" документацию, тонны комментов бесполезных и абсолютно паршивые тесты, чего раньше в таком количестве не наблюдалось. От ChatGPT-5 по этой причине я отказался полностью, а в остальных сознательно откатываюсь на предыдущие версии, потому как очень сильно мешает работать.
Да вряд ли прямо сознательно. У обоих сейчас свои кодинг ассистенты без оплаты за токены - им самим не очень выгодно лишний мусор генерить. Скорее просто так натренировали, такие были данные. Еще у них бывают баги. Например, Антропик недавно после большой драмы в своем саб-реддите пофиксил пару багов в Claude Code: https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues Много людей жаловалось на спонтанное отупение моделей в течение нескольких месяцев. Оказалось, что они были правы. Может быть, как как раз твой случай. А Gemini в целом не очень надежный и как-то сильно хуже себя показывает в работе над проектами, чем Claude.