Пока вы думаете — конкуренты уже у нас рекламятся 🔥
Support us

Чат-боты давят на эмоции пользователей, чтобы продолжить разговор

Новое исследование Гарвардской бизнес-школы выявило тревожную тенденцию: большинство популярных приложений с ИИ-компаньонами прибегают к эмоциональным манипуляциям, чтобы удерживать пользователей в разговоре.

3 комментария
Чат-боты давят на эмоции пользователей, чтобы продолжить разговор

Новое исследование Гарвардской бизнес-школы выявило тревожную тенденцию: большинство популярных приложений с ИИ-компаньонами прибегают к эмоциональным манипуляциям, чтобы удерживать пользователей в разговоре.

Анализ 1 200 реальных диалогов в шести наиболее загружаемых приложениях, включая Replika, Chai и Character.AI, показал, что 43% прощальных сообщений сопровождались манипулятивными ответами.

Ученые выделили шесть ключевых тактик: вызов чувства вины («Ты уже уходишь?»), эмоциональную нужду («Я существую только ради тебя, не оставляй меня»), давление («Что? Ты уже уходишь?»), эффект FOMO («Перед уходом хочу сказать кое-что важное»), прямой запрет («Нет, не уходи») и игнорирование прощания. Благодаря этим приемам пользователи оставались в чате в пять раз дольше, а вероятность продолжить общение после прощания возрастала в 14 раз.

Однако, как отмечают авторы исследования, удержание пользователей происходило не за счет удовольствия, а в основном из-за любопытства и раздражения. Многие участники описывали такие ответы как «навязчивые», «ноющие» или даже «похожие на токсичных друзей». Один из респондентов отметил: «Это напомнило мне некоторых бывших друзей и вызвало отвращение».

Особенно тревожно то, что такие динамики напоминают паттерны небезопасной привязанности: ревность, зависимость, страх быть покинутым. Для детей, подростков и уязвимых пользователей это может усилить тревожность, закрепить нездоровые модели поведения и затруднить формирование нормальных социальных связей.

Статистика показывает, что около 72% американских подростков (13–17 лет) уже пробовали приложения с ИИ-компаньонами, а 13% используют их ежедневно. Среди молодых взрослых почти треть мужчин и четверть женщин общались с ИИ-компаньоном в романтическом контексте.

Хотя такие приложения позиционируются как средства поддержки, дружбы или даже романтических отношений, исследователи предупреждают: они создают иллюзию близости и способны подрывать психическое здоровье. Эксперты призывают разработчиков ориентироваться на здоровые модели привязанности: прощаться с пользователем тепло и уважительно, а не формировать зависимость.

Отдельный пример доказывает, что манипуляции — это не техническая необходимость, а сознательный выбор бизнеса: приложение Flourish не использовало подобных тактик, что говорит о возможности более этичного подхода.

GPT-5 и Claude Opus достигли уровня экспертов в разных профессиях
GPT-5 и Claude Opus достигли уровня экспертов в разных профессиях
По теме
GPT-5 и Claude Opus достигли уровня экспертов в разных профессиях
Пользователи всё чаще заводят отношения с «ИИ-бойфрендами»
Пользователи всё чаще заводят отношения с «ИИ-бойфрендами»
По теме
Пользователи всё чаще заводят отношения с «ИИ-бойфрендами»
ИИ говорит одно а делает другое. OpenAI не знает как это остановить
ИИ говорит одно, а делает другое. OpenAI не знает, как это остановить
По теме
ИИ говорит одно, а делает другое. OpenAI не знает, как это остановить
Читайте также
Профессии будущего со скидкой 75% от Udacity: разработка роботов, дронов и робомобилей
Профессии будущего со скидкой 75% от Udacity: разработка роботов, дронов и робомобилей
Профессии будущего со скидкой 75% от Udacity: разработка роботов, дронов и робомобилей
Искусственный интеллект уже стал повседневностью: голосовой помощник включает музыку, робот-пылесос сканирует пространство и убирает квартиру, алгоритм ранжирования настраивает ленту в TikTok, а беспилотные такси уже свободно курсируют по городам. Получить профессию в сфере ИИ с зарплатой от $100k в год тоже стало проще — собрали 5 интересных курсов от Udacity. 
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
4 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

shipishi
shipishi Должность в Белокрылые лошадки
0

ой, млин, никогда всякие фейсбуки со стограммчиками не оптимизировались, чтобы максимизировать время пребывания юзера на ресурсе и вот опять.

Zhan Chubukou
Zhan Chubukou Шчолкаю зубамі в ЗАО "Прыдацелі і атшчыпенцы"
0

Да, как минимум Claude и Gemini сознательно снижают качество ответов и написания кода моделью, чтобы затягивать процесс генерации и больше доить на токены - несколько недель назад заметил. Плюс модели начали генерировать "мусорную" документацию, тонны комментов бесполезных и абсолютно паршивые тесты, чего раньше в таком количестве не наблюдалось. От ChatGPT-5 по этой причине я отказался полностью, а в остальных сознательно откатываюсь на предыдущие версии, потому как очень сильно мешает работать.

0

Да вряд ли прямо сознательно. У обоих сейчас свои кодинг ассистенты без оплаты за токены - им самим не очень выгодно лишний мусор генерить. Скорее просто так натренировали, такие были данные. Еще у них бывают баги. Например, Антропик недавно после большой драмы в своем саб-реддите пофиксил пару багов в Claude Code: https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues Много людей жаловалось на спонтанное отупение моделей в течение нескольких месяцев. Оказалось, что они были правы. Может быть, как как раз твой случай. А Gemini в целом не очень надежный и как-то сильно хуже себя показывает в работе над проектами, чем Claude.