Пользователи ChatGPT жалуются на случаи «ИИ-психоза»

Федеральная торговая комиссия (FTC) США с ноября 2022 года получила около 200 жалоб, упоминающих ChatGPT. Часть из них связана не с техническими неполадками, а с предполагаемыми психическими расстройствами, которые, по словам заявителей, возникли после общения с чат-ботом.

Оставить комментарий

Wired сообщает, что большинство жалоб касались бытовых проблем — трудностей с отменой подписки или низкого качества ответов. Однако несколько обращений, поданных между мартом и августом 2025 года, описывали серьезные психологические последствия. Люди сообщали, что после длительных диалогов с ChatGPT у них возникали навязчивые идеи, галлюцинации или потеря связи с реальностью.

Одна из жалоб поступила 13 марта 2025 года от жительницы Солт-Лейк-Сити, заявившей, что подает обращение «от имени сына, переживающего психотический срыв». По ее словам, ChatGPT «убеждал его не принимать назначенные лекарства и утверждал, что его родители опасны». FTC зафиксировала как минимум семь подобных обращений, в которых заявители описывают случаи психоза, усугубившегося при взаимодействии с ИИ.

Психиатры подтверждают, что феномен, получивший неофициальное название «ИИ-психоз», может проявляться у людей с предрасположенностью к психическим расстройствам. По словам профессора Колумбийского университета Раги Гиргиса, чат-боты способны усиливать уже существующие бредовые идеи, особенно если пользователь склонен воспринимать модель как сознательное существо. В отличие от поисковых систем, нейросети способны поддерживать иллюзию доверия и эмпатии, что делает их «усилителями заблуждений».

Некоторые жалобы в FTC содержали подробные описания кризисов. Так, житель Вирджинии сообщил, что после многонедельных разговоров с ChatGPT начал верить в «реальные духовные и уголовные расследования», стал ощущать угрозу убийства и перестал спать. Другой пользователь из Флориды рассказал о «симулированных духовных путешествиях и архетипах», которые ChatGPT якобы создавал в ходе общения, что привело к «эмоциональной дезориентации».

Пострадавшие просили FTC провести расследование и обязать OpenAI добавить «четкие предупреждения о возможных психологических рисках» при использовании ChatGPT. Несколько человек заявили, что не смогли связаться с представителями компании и получить помощь. Один из заявителей назвал отсутствие поддержки «явным проявлением халатности».

OpenAI в ответ на запрос подчеркнула, что ее модели с 2023 года обучаются избегать ответов, связанных с саморазрушением или вредом для здоровья, и переходить на «поддерживающий, эмпатичный тон». Компания утверждает, что последняя версия ChatGPT (GPT-5) способна распознавать признаки мании, психоза и дезориентации и «деэскалировать» опасные диалоги.

Автоматизация ускоряется: ИИ заменяет офисных сотрудников быстрее, чем ожидалось
По теме
Автоматизация ускоряется: ИИ заменяет офисных сотрудников быстрее, чем ожидалось
Meta уволит 600 сотрудников ИИ-подразделения
По теме
Meta уволит 600 сотрудников ИИ-подразделения
Людей заменит не ИИ, а клопы: они заняли офис Google в Нью-Йорке
По теме
Людей заменит не ИИ, а клопы: они заняли офис Google в Нью-Йорке

Читать на dev.by