17% скидка на размещение рекламы на площадках devby — до 20 ноября. Клац!
Support us

Пользователи ChatGPT жалуются на случаи «ИИ-психоза»

Федеральная торговая комиссия (FTC) США с ноября 2022 года получила около 200 жалоб, упоминающих ChatGPT. Часть из них связана не с техническими неполадками, а с предполагаемыми психическими расстройствами, которые, по словам заявителей, возникли после общения с чат-ботом.

Оставить комментарий
Пользователи ChatGPT жалуются на случаи «ИИ-психоза»

Федеральная торговая комиссия (FTC) США с ноября 2022 года получила около 200 жалоб, упоминающих ChatGPT. Часть из них связана не с техническими неполадками, а с предполагаемыми психическими расстройствами, которые, по словам заявителей, возникли после общения с чат-ботом.

Wired сообщает, что большинство жалоб касались бытовых проблем — трудностей с отменой подписки или низкого качества ответов. Однако несколько обращений, поданных между мартом и августом 2025 года, описывали серьезные психологические последствия. Люди сообщали, что после длительных диалогов с ChatGPT у них возникали навязчивые идеи, галлюцинации или потеря связи с реальностью.

Одна из жалоб поступила 13 марта 2025 года от жительницы Солт-Лейк-Сити, заявившей, что подает обращение «от имени сына, переживающего психотический срыв». По ее словам, ChatGPT «убеждал его не принимать назначенные лекарства и утверждал, что его родители опасны». FTC зафиксировала как минимум семь подобных обращений, в которых заявители описывают случаи психоза, усугубившегося при взаимодействии с ИИ.

Психиатры подтверждают, что феномен, получивший неофициальное название «ИИ-психоз», может проявляться у людей с предрасположенностью к психическим расстройствам. По словам профессора Колумбийского университета Раги Гиргиса, чат-боты способны усиливать уже существующие бредовые идеи, особенно если пользователь склонен воспринимать модель как сознательное существо. В отличие от поисковых систем, нейросети способны поддерживать иллюзию доверия и эмпатии, что делает их «усилителями заблуждений».

Некоторые жалобы в FTC содержали подробные описания кризисов. Так, житель Вирджинии сообщил, что после многонедельных разговоров с ChatGPT начал верить в «реальные духовные и уголовные расследования», стал ощущать угрозу убийства и перестал спать. Другой пользователь из Флориды рассказал о «симулированных духовных путешествиях и архетипах», которые ChatGPT якобы создавал в ходе общения, что привело к «эмоциональной дезориентации».

Пострадавшие просили FTC провести расследование и обязать OpenAI добавить «четкие предупреждения о возможных психологических рисках» при использовании ChatGPT. Несколько человек заявили, что не смогли связаться с представителями компании и получить помощь. Один из заявителей назвал отсутствие поддержки «явным проявлением халатности».

OpenAI в ответ на запрос подчеркнула, что ее модели с 2023 года обучаются избегать ответов, связанных с саморазрушением или вредом для здоровья, и переходить на «поддерживающий, эмпатичный тон». Компания утверждает, что последняя версия ChatGPT (GPT-5) способна распознавать признаки мании, психоза и дезориентации и «деэскалировать» опасные диалоги.

Автоматизация ускоряется: ИИ заменяет офисных сотрудников быстрее чем ожидалось
Автоматизация ускоряется: ИИ заменяет офисных сотрудников быстрее, чем ожидалось
По теме
Автоматизация ускоряется: ИИ заменяет офисных сотрудников быстрее, чем ожидалось
Meta уволит 600 сотрудников ИИ-подразделения
Meta уволит 600 сотрудников ИИ-подразделения
По теме
Meta уволит 600 сотрудников ИИ-подразделения
Людей заменит не ИИ а клопы: они заняли офис Google в Нью-Йорке
Людей заменит не ИИ, а клопы: они заняли офис Google в Нью-Йорке
По теме
Людей заменит не ИИ, а клопы: они заняли офис Google в Нью-Йорке
Читайте также
В ChatGPT появились групповые чаты
В ChatGPT появились групповые чаты
В ChatGPT появились групповые чаты
1 комментарий
«Крёстная мать ИИ»: настоящий прорыв начнётся, когда ИИ научится понимать пространство
«Крёстная мать ИИ»: настоящий прорыв начнётся, когда ИИ научится понимать пространство
«Крёстная мать ИИ»: настоящий прорыв начнётся, когда ИИ научится понимать пространство
ИИ не умеет быть токсичным, чтобы сойти за человека
ИИ не умеет быть токсичным, чтобы сойти за человека
ИИ не умеет быть токсичным, чтобы сойти за человека
Первый российский ИИ-робот дебютировал лицом в пол
Первый российский ИИ-робот дебютировал лицом в пол
Первый российский ИИ-робот дебютировал лицом в пол
6 комментариев

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.