ИИ как личный коуч: может ли чат-бот помочь изменить жизнь
Искусственный интеллект все чаще используют как личного коуча: для постановки целей, саморефлексии и попыток «перезапустить» жизнь. Такие инструменты могут помочь с мотивацией и структурированием планов, но при неосторожном использовании усиливают искажения, зависимость и культурные предубеждения.
Искусственный интеллект все чаще используют как личного коуча: для постановки целей, саморефлексии и попыток «перезапустить» жизнь. Такие инструменты могут помочь с мотивацией и структурированием планов, но при неосторожном использовании усиливают искажения, зависимость и культурные предубеждения.
По данным OpenAI, опубликованным в сентябре 2025 года, запросы к ChatGPT за персональными советами стали одним из самых распространенных сценариев использования сервиса. В компании отмечали, что «люди ценят ChatGPT прежде всего как советника, а не только как инструмент для выполнения задач». На волне новогодних обещаний в 2026 году все больше пользователей начали использовать чат-боты для формулирования личных целей.
Исследователи считают, что ИИ-коучинг сам по себе не является ни однозначным благом, ни злом. Зайнаб Ифтихар, аспирантка Брауновского университета, изучающая влияние ИИ на благополучие пользователей, говорит, что подсказки чат-ботов могут «снижать порог для саморефлексии» и служить «каркасом» для формулирования мыслей у людей, которые чувствуют себя застрявшими или перегруженными. Доцент Университета Джонса Хопкинса Цзян Сяо добавляет, что ИИ умеет эффективно синтезировать ранее полученную информацию и помогать упорядочивать цели.
Но рисков не меньше. Большие языковые модели обучаются на массивах текстов, отражающих доминирующие культурные установки, в первую очередь западные представления об успехе, саморазвитии и отношениях. В результате цели, предложенные ИИ, могут быть чрезмерно универсальными и не учитывать индивидуальные ценности пользователя. «Есть риск, что система будет укреплять доминирующие нарративы, а не то, что действительно важно конкретному человеку», — отмечает Ифтихар.
Дополнительную опасность представляет склонность чат-ботов к соглашательству. Исследования показывают, что ИИ часто «поддакивает» пользователю, отдавая приоритет одобрению, а не точности. В 2025 году OpenAI даже откатывала обновление ChatGPT из-за чрезмерной «лести». По словам Сяо, это может затягивать пользователей в эхо-камеры, где их установки не подвергаются сомнению.
Эксперты сходятся во мнении: ИИ стоит использовать как вспомогательный инструмент, а не как авторитетный источник жизненных решений. Психолог Эмили Балцетис из Нью-Йоркского университета советует привлекать чат-ботов для мозгового штурма, анализа возможных препятствий и планирования контроля прогресса. При этом важно критически оценивать ответы и корректировать ИИ, как если бы это был живой собеседник. «Эти инструменты звучат по-человечески, но по своей природе не несут ответственности за ваши решения», — подчеркивает Сяо.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.