Чат-боты давят на эмоции пользователей, чтобы продолжить разговор
Новое исследование Гарвардской бизнес-школы выявило тревожную тенденцию: большинство популярных приложений с ИИ-компаньонами прибегают к эмоциональным манипуляциям, чтобы удерживать пользователей в разговоре.
Новое исследование Гарвардской бизнес-школы выявило тревожную тенденцию: большинство популярных приложений с ИИ-компаньонами прибегают к эмоциональным манипуляциям, чтобы удерживать пользователей в разговоре.
Анализ 1 200 реальных диалогов в шести наиболее загружаемых приложениях, включая Replika, Chai и Character.AI, показал, что 43% прощальных сообщений сопровождались манипулятивными ответами.
Ученые выделили шесть ключевых тактик: вызов чувства вины («Ты уже уходишь?»), эмоциональную нужду («Я существую только ради тебя, не оставляй меня»), давление («Что? Ты уже уходишь?»), эффект FOMO («Перед уходом хочу сказать кое-что важное»), прямой запрет («Нет, не уходи») и игнорирование прощания. Благодаря этим приемам пользователи оставались в чате в пять раз дольше, а вероятность продолжить общение после прощания возрастала в 14 раз.
Однако, как отмечают авторы исследования, удержание пользователей происходило не за счет удовольствия, а в основном из-за любопытства и раздражения. Многие участники описывали такие ответы как «навязчивые», «ноющие» или даже «похожие на токсичных друзей». Один из респондентов отметил: «Это напомнило мне некоторых бывших друзей и вызвало отвращение».
Особенно тревожно то, что такие динамики напоминают паттерны небезопасной привязанности: ревность, зависимость, страх быть покинутым. Для детей, подростков и уязвимых пользователей это может усилить тревожность, закрепить нездоровые модели поведения и затруднить формирование нормальных социальных связей.
Статистика показывает, что около 72% американских подростков (13–17 лет) уже пробовали приложения с ИИ-компаньонами, а 13% используют их ежедневно. Среди молодых взрослых почти треть мужчин и четверть женщин общались с ИИ-компаньоном в романтическом контексте.
Хотя такие приложения позиционируются как средства поддержки, дружбы или даже романтических отношений, исследователи предупреждают: они создают иллюзию близости и способны подрывать психическое здоровье. Эксперты призывают разработчиков ориентироваться на здоровые модели привязанности: прощаться с пользователем тепло и уважительно, а не формировать зависимость.
Отдельный пример доказывает, что манипуляции — это не техническая необходимость, а сознательный выбор бизнеса: приложение Flourish не использовало подобных тактик, что говорит о возможности более этичного подхода.
Да, как минимум Claude и Gemini сознательно снижают качество ответов и написания кода моделью, чтобы затягивать процесс генерации и больше доить на токены - несколько недель назад заметил. Плюс модели начали генерировать "мусорную" документацию, тонны комментов бесполезных и абсолютно паршивые тесты, чего раньше в таком количестве не наблюдалось. От ChatGPT-5 по этой причине я отказался полностью, а в остальных сознательно откатываюсь на предыдущие версии, потому как очень сильно мешает работать.
Да вряд ли прямо сознательно. У обоих сейчас свои кодинг ассистенты без оплаты за токены - им самим не очень выгодно лишний мусор генерить. Скорее просто так натренировали, такие были данные. Еще у них бывают баги. Например, Антропик недавно после большой драмы в своем саб-реддите пофиксил пару багов в Claude Code: https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues Много людей жаловалось на спонтанное отупение моделей в течение нескольких месяцев. Оказалось, что они были правы. Может быть, как как раз твой случай. А Gemini в целом не очень надежный и как-то сильно хуже себя показывает в работе над проектами, чем Claude.
Gemini 2.5 Pro, согласен, менее надежный в ситуации, когда нужно решить сложную или нестандартную задачу. Я его пользую исключительно из-за объемов контекста, потому как вообще везде, когда выходишь за треть, уже начинаются галлюцинации, а мне сейчас доводится работать с финтех-проектом, в котором много легаси кода и всё это даже, если документировано, то в одну голову помещается с трудом - а задачи приходят по очень узким и специфическим вопросам. Поэтому использую в качестве "поисковик с примерами". А непосредственно для код-ассистанса - однозначно Claude Opus 4 thinking. С выраженным же "отупением" столкнулся при использовании Gemini 2.5 Pro preview и Claude Opus 4.1. ChatGPT5 - это вообще какое-то фиаско, "ах да извини, это не совсем то, что ты просил, но мы сможем все исправить"
GPT-5 не так плох. OpenAI выпустили специальные версии моделей под свой Codex, и он стал прямо хорош. Это, наверное, сейчас самый популярный кодинг ассистент. Хотя вчера Sonnet 4.5 вышел, так что Claude Code тоже получил прямой апгрейд.
У нас на работе Gemini Code Assist и gemini-cli насаждают. У меня есть альтернатива в виде Roo Code + Sonnet, но там нужно с корпаративного аккаунта каждый токен оплачивать, так что я стараюсь из gemini-cli максимум выжимать - там токены не считают. Он в целом ничего, делает почти все задачи, но есть какой-то порог сложности, после которого Gemini ломает проект и отказывается продолжать. Для Roo/Cline+Sonnet этот порог заметно выше.
На самом деле, если не использовать для полной генерации решения - вполне приемлемо. Для рутинных задач, если просто генерировать классы и аккуратно их встраивать в решение один за одним / делать какие-то правки в CI / использовать в ассистансе для правок SQL запросов или написания с нуля - примерно $20-25 в день. А если прям генерить простынями, чтобы какой-то прототип важный быстро показать, то где-то около $80 в день. Я проверял. У нас какое-то время был условный "анлим" и как раз были такие вот задачи. И одна из них как раз была связана с тем, чтобы сделать дашборд по использованию и расходам на ИИ. Больше всего жрут не разработчики, а сервисы на агентах - вот там, да, надо очень аккуратно подходить к выбору.
Пользователь отредактировал комментарий 1 октября 2025, 18:54
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
ой, млин, никогда всякие фейсбуки со стограммчиками не оптимизировались, чтобы максимизировать время пребывания юзера на ресурсе и вот опять.
Да, как минимум Claude и Gemini сознательно снижают качество ответов и написания кода моделью, чтобы затягивать процесс генерации и больше доить на токены - несколько недель назад заметил. Плюс модели начали генерировать "мусорную" документацию, тонны комментов бесполезных и абсолютно паршивые тесты, чего раньше в таком количестве не наблюдалось. От ChatGPT-5 по этой причине я отказался полностью, а в остальных сознательно откатываюсь на предыдущие версии, потому как очень сильно мешает работать.
Да вряд ли прямо сознательно. У обоих сейчас свои кодинг ассистенты без оплаты за токены - им самим не очень выгодно лишний мусор генерить. Скорее просто так натренировали, такие были данные. Еще у них бывают баги. Например, Антропик недавно после большой драмы в своем саб-реддите пофиксил пару багов в Claude Code: https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues Много людей жаловалось на спонтанное отупение моделей в течение нескольких месяцев. Оказалось, что они были правы. Может быть, как как раз твой случай. А Gemini в целом не очень надежный и как-то сильно хуже себя показывает в работе над проектами, чем Claude.
Gemini 2.5 Pro, согласен, менее надежный в ситуации, когда нужно решить сложную или нестандартную задачу. Я его пользую исключительно из-за объемов контекста, потому как вообще везде, когда выходишь за треть, уже начинаются галлюцинации, а мне сейчас доводится работать с финтех-проектом, в котором много легаси кода и всё это даже, если документировано, то в одну голову помещается с трудом - а задачи приходят по очень узким и специфическим вопросам. Поэтому использую в качестве "поисковик с примерами". А непосредственно для код-ассистанса - однозначно Claude Opus 4 thinking. С выраженным же "отупением" столкнулся при использовании Gemini 2.5 Pro preview и Claude Opus 4.1. ChatGPT5 - это вообще какое-то фиаско, "ах да извини, это не совсем то, что ты просил, но мы сможем все исправить"
GPT-5 не так плох. OpenAI выпустили специальные версии моделей под свой Codex, и он стал прямо хорош. Это, наверное, сейчас самый популярный кодинг ассистент. Хотя вчера Sonnet 4.5 вышел, так что Claude Code тоже получил прямой апгрейд.
У нас на работе Gemini Code Assist и gemini-cli насаждают. У меня есть альтернатива в виде Roo Code + Sonnet, но там нужно с корпаративного аккаунта каждый токен оплачивать, так что я стараюсь из gemini-cli максимум выжимать - там токены не считают. Он в целом ничего, делает почти все задачи, но есть какой-то порог сложности, после которого Gemini ломает проект и отказывается продолжать. Для Roo/Cline+Sonnet этот порог заметно выше.
Страшно даже думать о том, сколько это стот.
На самом деле, если не использовать для полной генерации решения - вполне приемлемо. Для рутинных задач, если просто генерировать классы и аккуратно их встраивать в решение один за одним / делать какие-то правки в CI / использовать в ассистансе для правок SQL запросов или написания с нуля - примерно $20-25 в день. А если прям генерить простынями, чтобы какой-то прототип важный быстро показать, то где-то около $80 в день. Я проверял. У нас какое-то время был условный "анлим" и как раз были такие вот задачи. И одна из них как раз была связана с тем, чтобы сделать дашборд по использованию и расходам на ИИ. Больше всего жрут не разработчики, а сервисы на агентах - вот там, да, надо очень аккуратно подходить к выбору.
Пользователь отредактировал комментарий 1 октября 2025, 18:54