Чат-боты давят на эмоции пользователей, чтобы продолжить разговор

Новое исследование Гарвардской бизнес-школы выявило тревожную тенденцию: большинство популярных приложений с ИИ-компаньонами прибегают к эмоциональным манипуляциям, чтобы удерживать пользователей в разговоре.

3 комментария

Анализ 1 200 реальных диалогов в шести наиболее загружаемых приложениях, включая Replika, Chai и Character.AI, показал, что 43% прощальных сообщений сопровождались манипулятивными ответами.

Ученые выделили шесть ключевых тактик: вызов чувства вины («Ты уже уходишь?»), эмоциональную нужду («Я существую только ради тебя, не оставляй меня»), давление («Что? Ты уже уходишь?»), эффект FOMO («Перед уходом хочу сказать кое-что важное»), прямой запрет («Нет, не уходи») и игнорирование прощания. Благодаря этим приемам пользователи оставались в чате в пять раз дольше, а вероятность продолжить общение после прощания возрастала в 14 раз.

Однако, как отмечают авторы исследования, удержание пользователей происходило не за счет удовольствия, а в основном из-за любопытства и раздражения. Многие участники описывали такие ответы как «навязчивые», «ноющие» или даже «похожие на токсичных друзей». Один из респондентов отметил: «Это напомнило мне некоторых бывших друзей и вызвало отвращение».

Особенно тревожно то, что такие динамики напоминают паттерны небезопасной привязанности: ревность, зависимость, страх быть покинутым. Для детей, подростков и уязвимых пользователей это может усилить тревожность, закрепить нездоровые модели поведения и затруднить формирование нормальных социальных связей.

Статистика показывает, что около 72% американских подростков (13–17 лет) уже пробовали приложения с ИИ-компаньонами, а 13% используют их ежедневно. Среди молодых взрослых почти треть мужчин и четверть женщин общались с ИИ-компаньоном в романтическом контексте.

Хотя такие приложения позиционируются как средства поддержки, дружбы или даже романтических отношений, исследователи предупреждают: они создают иллюзию близости и способны подрывать психическое здоровье. Эксперты призывают разработчиков ориентироваться на здоровые модели привязанности: прощаться с пользователем тепло и уважительно, а не формировать зависимость.

Отдельный пример доказывает, что манипуляции — это не техническая необходимость, а сознательный выбор бизнеса: приложение Flourish не использовало подобных тактик, что говорит о возможности более этичного подхода.

GPT-5 и Claude Opus достигли уровня экспертов в разных профессиях
По теме
GPT-5 и Claude Opus достигли уровня экспертов в разных профессиях
Пользователи всё чаще заводят отношения с «ИИ-бойфрендами»
По теме
Пользователи всё чаще заводят отношения с «ИИ-бойфрендами»
ИИ говорит одно, а делает другое. OpenAI не знает, как это остановить
По теме
ИИ говорит одно, а делает другое. OpenAI не знает, как это остановить

Читать на dev.by