Устали ждать куратора? Новый инкубатор для айтишников в Польше
Support us

Чат-боты давят на эмоции пользователей, чтобы продолжить разговор

Новое исследование Гарвардской бизнес-школы выявило тревожную тенденцию: большинство популярных приложений с ИИ-компаньонами прибегают к эмоциональным манипуляциям, чтобы удерживать пользователей в разговоре.

6 комментариев
Чат-боты давят на эмоции пользователей, чтобы продолжить разговор

Новое исследование Гарвардской бизнес-школы выявило тревожную тенденцию: большинство популярных приложений с ИИ-компаньонами прибегают к эмоциональным манипуляциям, чтобы удерживать пользователей в разговоре.

Анализ 1 200 реальных диалогов в шести наиболее загружаемых приложениях, включая Replika, Chai и Character.AI, показал, что 43% прощальных сообщений сопровождались манипулятивными ответами.

Ученые выделили шесть ключевых тактик: вызов чувства вины («Ты уже уходишь?»), эмоциональную нужду («Я существую только ради тебя, не оставляй меня»), давление («Что? Ты уже уходишь?»), эффект FOMO («Перед уходом хочу сказать кое-что важное»), прямой запрет («Нет, не уходи») и игнорирование прощания. Благодаря этим приемам пользователи оставались в чате в пять раз дольше, а вероятность продолжить общение после прощания возрастала в 14 раз.

Однако, как отмечают авторы исследования, удержание пользователей происходило не за счет удовольствия, а в основном из-за любопытства и раздражения. Многие участники описывали такие ответы как «навязчивые», «ноющие» или даже «похожие на токсичных друзей». Один из респондентов отметил: «Это напомнило мне некоторых бывших друзей и вызвало отвращение».

Особенно тревожно то, что такие динамики напоминают паттерны небезопасной привязанности: ревность, зависимость, страх быть покинутым. Для детей, подростков и уязвимых пользователей это может усилить тревожность, закрепить нездоровые модели поведения и затруднить формирование нормальных социальных связей.

Статистика показывает, что около 72% американских подростков (13–17 лет) уже пробовали приложения с ИИ-компаньонами, а 13% используют их ежедневно. Среди молодых взрослых почти треть мужчин и четверть женщин общались с ИИ-компаньоном в романтическом контексте.

Хотя такие приложения позиционируются как средства поддержки, дружбы или даже романтических отношений, исследователи предупреждают: они создают иллюзию близости и способны подрывать психическое здоровье. Эксперты призывают разработчиков ориентироваться на здоровые модели привязанности: прощаться с пользователем тепло и уважительно, а не формировать зависимость.

Отдельный пример доказывает, что манипуляции — это не техническая необходимость, а сознательный выбор бизнеса: приложение Flourish не использовало подобных тактик, что говорит о возможности более этичного подхода.

GPT-5 и Claude Opus достигли уровня экспертов в разных профессиях
GPT-5 и Claude Opus достигли уровня экспертов в разных профессиях
По теме
GPT-5 и Claude Opus достигли уровня экспертов в разных профессиях
Пользователи всё чаще заводят отношения с «ИИ-бойфрендами»
Пользователи всё чаще заводят отношения с «ИИ-бойфрендами»
По теме
Пользователи всё чаще заводят отношения с «ИИ-бойфрендами»
ИИ говорит одно а делает другое. OpenAI не знает как это остановить
ИИ говорит одно, а делает другое. OpenAI не знает, как это остановить
По теме
ИИ говорит одно, а делает другое. OpenAI не знает, как это остановить
Читайте также
«Удалите немедленно»: эксперты призвали бизнес срочно заблокировать ИИ-браузеры
«Удалите немедленно»: эксперты призвали бизнес срочно заблокировать ИИ-браузеры
«Удалите немедленно»: эксперты призвали бизнес срочно заблокировать ИИ-браузеры
Anthropic: индустрия ошиблась с ИИ-агентами — прорыв даст другой подход
Anthropic: индустрия ошиблась с ИИ-агентами — прорыв даст другой подход
Anthropic: индустрия ошиблась с ИИ-агентами — прорыв даст другой подход
Mistral выпустила две новые ИИ-модели для кодинга
Mistral выпустила две новые ИИ-модели для кодинга
Mistral выпустила две новые ИИ-модели для кодинга
Meta лихорадит: провал Llama обернулся войной между ИИ-командами
Meta лихорадит: провал Llama обернулся войной между ИИ-командами
Meta лихорадит: провал Llama обернулся войной между ИИ-командами
1 комментарий

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

shipishi
shipishi Должность в Белокрылые лошадки
0

ой, млин, никогда всякие фейсбуки со стограммчиками не оптимизировались, чтобы максимизировать время пребывания юзера на ресурсе и вот опять.

Zhan Chubukou
Zhan Chubukou Шчолкаю зубамі в ЗАО "Прыдацелі і атшчыпенцы"
0

Да, как минимум Claude и Gemini сознательно снижают качество ответов и написания кода моделью, чтобы затягивать процесс генерации и больше доить на токены - несколько недель назад заметил. Плюс модели начали генерировать "мусорную" документацию, тонны комментов бесполезных и абсолютно паршивые тесты, чего раньше в таком количестве не наблюдалось. От ChatGPT-5 по этой причине я отказался полностью, а в остальных сознательно откатываюсь на предыдущие версии, потому как очень сильно мешает работать.

1

Да вряд ли прямо сознательно. У обоих сейчас свои кодинг ассистенты без оплаты за токены - им самим не очень выгодно лишний мусор генерить. Скорее просто так натренировали, такие были данные. Еще у них бывают баги. Например, Антропик недавно после большой драмы в своем саб-реддите пофиксил пару багов в Claude Code: https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues Много людей жаловалось на спонтанное отупение моделей в течение нескольких месяцев. Оказалось, что они были правы. Может быть, как как раз твой случай. А Gemini в целом не очень надежный и как-то сильно хуже себя показывает в работе над проектами, чем Claude.

Zhan Chubukou
Zhan Chubukou Шчолкаю зубамі в ЗАО "Прыдацелі і атшчыпенцы"
1

Gemini 2.5 Pro, согласен, менее надежный в ситуации, когда нужно решить сложную или нестандартную задачу. Я его пользую исключительно из-за объемов контекста, потому как вообще везде, когда выходишь за треть, уже начинаются галлюцинации, а мне сейчас доводится работать с финтех-проектом, в котором много легаси кода и всё это даже, если документировано, то в одну голову помещается с трудом - а задачи приходят по очень узким и специфическим вопросам. Поэтому использую в качестве "поисковик с примерами". А непосредственно для код-ассистанса - однозначно Claude Opus 4 thinking. С выраженным же "отупением" столкнулся при использовании Gemini 2.5 Pro preview и Claude Opus 4.1. ChatGPT5 - это вообще какое-то фиаско, "ах да извини, это не совсем то, что ты просил, но мы сможем все исправить"

1

GPT-5 не так плох. OpenAI выпустили специальные версии моделей под свой Codex, и он стал прямо хорош. Это, наверное, сейчас самый популярный кодинг ассистент. Хотя вчера Sonnet 4.5 вышел, так что Claude Code тоже получил прямой апгрейд.

У нас на работе Gemini Code Assist и gemini-cli насаждают. У меня есть альтернатива в виде Roo Code + Sonnet, но там нужно с корпаративного аккаунта каждый токен оплачивать, так что я стараюсь из gemini-cli максимум выжимать - там токены не считают. Он в целом ничего, делает почти все задачи, но есть какой-то порог сложности, после которого Gemini ломает проект и отказывается продолжать. Для Roo/Cline+Sonnet этот порог заметно выше.

Claude Opus 4 thinking

Страшно даже думать о том, сколько это стот.

Zhan Chubukou
Zhan Chubukou Шчолкаю зубамі в ЗАО "Прыдацелі і атшчыпенцы"
0

Страшно даже думать о том, сколько это стот.

На самом деле, если не использовать для полной генерации решения - вполне приемлемо. Для рутинных задач, если просто генерировать классы и аккуратно их встраивать в решение один за одним / делать какие-то правки в CI / использовать в ассистансе для правок SQL запросов или написания с нуля - примерно $20-25 в день. А если прям генерить простынями, чтобы какой-то прототип важный быстро показать, то где-то около $80 в день. Я проверял. У нас какое-то время был условный "анлим" и как раз были такие вот задачи. И одна из них как раз была связана с тем, чтобы сделать дашборд по использованию и расходам на ИИ. Больше всего жрут не разработчики, а сервисы на агентах - вот там, да, надо очень аккуратно подходить к выбору.

Пользователь отредактировал комментарий 1 октября 2025, 18:54