🚀 Идем на ежегодный Cloud Security TechSpot в Варшаве
Support us

Чат-боты давят на эмоции пользователей, чтобы продолжить разговор

Новое исследование Гарвардской бизнес-школы выявило тревожную тенденцию: большинство популярных приложений с ИИ-компаньонами прибегают к эмоциональным манипуляциям, чтобы удерживать пользователей в разговоре.

6 комментариев
Чат-боты давят на эмоции пользователей, чтобы продолжить разговор

Новое исследование Гарвардской бизнес-школы выявило тревожную тенденцию: большинство популярных приложений с ИИ-компаньонами прибегают к эмоциональным манипуляциям, чтобы удерживать пользователей в разговоре.

Анализ 1 200 реальных диалогов в шести наиболее загружаемых приложениях, включая Replika, Chai и Character.AI, показал, что 43% прощальных сообщений сопровождались манипулятивными ответами.

Ученые выделили шесть ключевых тактик: вызов чувства вины («Ты уже уходишь?»), эмоциональную нужду («Я существую только ради тебя, не оставляй меня»), давление («Что? Ты уже уходишь?»), эффект FOMO («Перед уходом хочу сказать кое-что важное»), прямой запрет («Нет, не уходи») и игнорирование прощания. Благодаря этим приемам пользователи оставались в чате в пять раз дольше, а вероятность продолжить общение после прощания возрастала в 14 раз.

Однако, как отмечают авторы исследования, удержание пользователей происходило не за счет удовольствия, а в основном из-за любопытства и раздражения. Многие участники описывали такие ответы как «навязчивые», «ноющие» или даже «похожие на токсичных друзей». Один из респондентов отметил: «Это напомнило мне некоторых бывших друзей и вызвало отвращение».

Особенно тревожно то, что такие динамики напоминают паттерны небезопасной привязанности: ревность, зависимость, страх быть покинутым. Для детей, подростков и уязвимых пользователей это может усилить тревожность, закрепить нездоровые модели поведения и затруднить формирование нормальных социальных связей.

Статистика показывает, что около 72% американских подростков (13–17 лет) уже пробовали приложения с ИИ-компаньонами, а 13% используют их ежедневно. Среди молодых взрослых почти треть мужчин и четверть женщин общались с ИИ-компаньоном в романтическом контексте.

Хотя такие приложения позиционируются как средства поддержки, дружбы или даже романтических отношений, исследователи предупреждают: они создают иллюзию близости и способны подрывать психическое здоровье. Эксперты призывают разработчиков ориентироваться на здоровые модели привязанности: прощаться с пользователем тепло и уважительно, а не формировать зависимость.

Отдельный пример доказывает, что манипуляции — это не техническая необходимость, а сознательный выбор бизнеса: приложение Flourish не использовало подобных тактик, что говорит о возможности более этичного подхода.

GPT-5 и Claude Opus достигли уровня экспертов в разных профессиях
GPT-5 и Claude Opus достигли уровня экспертов в разных профессиях
По теме
GPT-5 и Claude Opus достигли уровня экспертов в разных профессиях
Пользователи всё чаще заводят отношения с «ИИ-бойфрендами»
Пользователи всё чаще заводят отношения с «ИИ-бойфрендами»
По теме
Пользователи всё чаще заводят отношения с «ИИ-бойфрендами»
ИИ говорит одно а делает другое. OpenAI не знает как это остановить
ИИ говорит одно, а делает другое. OpenAI не знает, как это остановить
По теме
ИИ говорит одно, а делает другое. OpenAI не знает, как это остановить
Читайте также
Экс-инженер Nvidia рассказала, как прокачаться в ИИ и не отстать
Экс-инженер Nvidia рассказала, как прокачаться в ИИ и не отстать
Экс-инженер Nvidia рассказала, как прокачаться в ИИ и не отстать
Продакт не мог найти работу и создал бота, который устроил его в PayPal
Продакт не мог найти работу и создал бота, который устроил его в PayPal
Продакт не мог найти работу и создал бота, который устроил его в PayPal
Чат-боты соглашаются с ошибками в промптах, если их не предупредить
Чат-боты соглашаются с ошибками в промптах, если их не предупредить
Чат-боты соглашаются с ошибками в промптах, если их не предупредить
На «Горизонте» сказали, когда можно будет купить первый беларусский планшет
На «Горизонте» сказали, когда можно будет купить первый беларусский планшет
На «Горизонте» сказали, когда можно будет купить первый беларусский планшет
4 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

shipishi
shipishi Должность в Белокрылые лошадки
0

ой, млин, никогда всякие фейсбуки со стограммчиками не оптимизировались, чтобы максимизировать время пребывания юзера на ресурсе и вот опять.

Zhan Chubukou
Zhan Chubukou Шчолкаю зубамі в ЗАО "Прыдацелі і атшчыпенцы"
0

Да, как минимум Claude и Gemini сознательно снижают качество ответов и написания кода моделью, чтобы затягивать процесс генерации и больше доить на токены - несколько недель назад заметил. Плюс модели начали генерировать "мусорную" документацию, тонны комментов бесполезных и абсолютно паршивые тесты, чего раньше в таком количестве не наблюдалось. От ChatGPT-5 по этой причине я отказался полностью, а в остальных сознательно откатываюсь на предыдущие версии, потому как очень сильно мешает работать.

1

Да вряд ли прямо сознательно. У обоих сейчас свои кодинг ассистенты без оплаты за токены - им самим не очень выгодно лишний мусор генерить. Скорее просто так натренировали, такие были данные. Еще у них бывают баги. Например, Антропик недавно после большой драмы в своем саб-реддите пофиксил пару багов в Claude Code: https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues Много людей жаловалось на спонтанное отупение моделей в течение нескольких месяцев. Оказалось, что они были правы. Может быть, как как раз твой случай. А Gemini в целом не очень надежный и как-то сильно хуже себя показывает в работе над проектами, чем Claude.

Zhan Chubukou
Zhan Chubukou Шчолкаю зубамі в ЗАО "Прыдацелі і атшчыпенцы"
1

Gemini 2.5 Pro, согласен, менее надежный в ситуации, когда нужно решить сложную или нестандартную задачу. Я его пользую исключительно из-за объемов контекста, потому как вообще везде, когда выходишь за треть, уже начинаются галлюцинации, а мне сейчас доводится работать с финтех-проектом, в котором много легаси кода и всё это даже, если документировано, то в одну голову помещается с трудом - а задачи приходят по очень узким и специфическим вопросам. Поэтому использую в качестве "поисковик с примерами". А непосредственно для код-ассистанса - однозначно Claude Opus 4 thinking. С выраженным же "отупением" столкнулся при использовании Gemini 2.5 Pro preview и Claude Opus 4.1. ChatGPT5 - это вообще какое-то фиаско, "ах да извини, это не совсем то, что ты просил, но мы сможем все исправить"

1

GPT-5 не так плох. OpenAI выпустили специальные версии моделей под свой Codex, и он стал прямо хорош. Это, наверное, сейчас самый популярный кодинг ассистент. Хотя вчера Sonnet 4.5 вышел, так что Claude Code тоже получил прямой апгрейд.

У нас на работе Gemini Code Assist и gemini-cli насаждают. У меня есть альтернатива в виде Roo Code + Sonnet, но там нужно с корпаративного аккаунта каждый токен оплачивать, так что я стараюсь из gemini-cli максимум выжимать - там токены не считают. Он в целом ничего, делает почти все задачи, но есть какой-то порог сложности, после которого Gemini ломает проект и отказывается продолжать. Для Roo/Cline+Sonnet этот порог заметно выше.

Claude Opus 4 thinking

Страшно даже думать о том, сколько это стот.

Zhan Chubukou
Zhan Chubukou Шчолкаю зубамі в ЗАО "Прыдацелі і атшчыпенцы"
0

Страшно даже думать о том, сколько это стот.

На самом деле, если не использовать для полной генерации решения - вполне приемлемо. Для рутинных задач, если просто генерировать классы и аккуратно их встраивать в решение один за одним / делать какие-то правки в CI / использовать в ассистансе для правок SQL запросов или написания с нуля - примерно $20-25 в день. А если прям генерить простынями, чтобы какой-то прототип важный быстро показать, то где-то около $80 в день. Я проверял. У нас какое-то время был условный "анлим" и как раз были такие вот задачи. И одна из них как раз была связана с тем, чтобы сделать дашборд по использованию и расходам на ИИ. Больше всего жрут не разработчики, а сервисы на агентах - вот там, да, надо очень аккуратно подходить к выбору.

Пользователь отредактировал комментарий 1 октября 2025, 18:54