Карыстальнікі ChatGPT скардзяцца на выпадкі «ШІ-псіхозу»
Федэральная гандлёвая камісія (FTC) ЗША з лістапада 2022 года атрымала каля 200 скаргаў, якія згадваюць ChatGPT. Частка з іх звязана не з тэхнічнымі няспраўнасцямі, а з меркаванымі псіхічнымі расстройствамі, якія, паводле заяўнікаў, узніклі пасля зносін з чат-ботам.
Федэральная гандлёвая камісія (FTC) ЗША з лістапада 2022 года атрымала каля 200 скаргаў, якія згадваюць ChatGPT. Частка з іх звязана не з тэхнічнымі няспраўнасцямі, а з меркаванымі псіхічнымі расстройствамі, якія, паводле заяўнікаў, узніклі пасля зносін з чат-ботам.
Wired паведамляе, што большасць скаргаў тычыліся побытавых праблем — цяжкасцяў са скасаваннем падпіскі ці нізкай якасці адказаў. Аднак некалькі зваротаў, пададзеных паміж сакавіком і жніўнем 2025 года, апісвалі сур’ёзныя псіхалагічныя наступствы. Людзі паведамлялі, што пасля працяглых дыялогаў з ChatGPT у іх узнікалі навязлівыя ідэі, галюцынацыі ці страта сувязі з рэальнасцю.
Адна са скаргаў паступіла 13 сакавіка 2025 года ад жыхаркі Солт-Лэйк-Сіці, якая заявіла, што падае зварот «ад імя сына, які перажывае псіхатычны зрыў». Па яе словах, ChatGPT «пераконваў яго не прымаць прызначаныя лекі і сцвярджаў, што яго бацькі небяспечныя». FTC зафіксавала як мінімум сем падобных зваротаў, у якіх заяўнікі апісваюць выпадкі псіхозу, які пагоршыўся пры ўзаемадзеянні з ШІ.
Псіхіятры пацвярджаюць, што феномен, які атрымаў неафіцыйную назву «ШІ-псіхоз», можа праяўляцца ў людзей са схільнасцю да псіхічных расстройстваў. Па словах прафесара Калумбійскага ўніверсітэта Рагі Гіргіса, чат-боты здольныя ўзмацняць ужо існуючыя трызненні, асабліва калі карыстальнік схільны ўспрымаць мадэль як свядомую істоту. У адрозненне ад пошукавых сістэм, нейрасеткі здольныя падтрымліваць ілюзію даверу і эмпатыі, што робіць іх «узмацняльнікамі аблудаў».
Некаторыя скаргі ў FTC утрымлівалі падрабязныя апісанні крызісаў. Так, жыхар Вірджыніі паведаміў, што пасля шматтыднёвых размоў з ChatGPT пачаў верыць у «рэальныя духоўныя і крымінальныя расследаванні», стаў адчуваць пагрозу забойства і перастаў спаць. Іншы карыстальнік з Флорыды расказаў пра «сімуляваныя духоўныя падарожжы і архетыпы», якія ChatGPT нібыта ствараў у ходзе зносін, што прывяло да «эмацыйнай дэзарыентацыі».
Пацярпелыя прасілі FTC правесці расследаванне і абавязаць OpenAI дадаць «выразныя папярэджанні пра магчымыя псіхалагічныя рызыкі» пры выкарыстанні ChatGPT. Некалькі чалавек заявілі, што не змаглі звязацца з прадстаўнікамі кампаніі і атрымаць дапамогу. Адзін з заяўнікаў назваў адсутнасць падтрымкі «яўным праявам нядбайнасці».
OpenAI у адказ на запыт падкрэсліла, што яе мадэлі з 2023 года навучаюцца пазбягаць адказаў, звязаных з самаразбурэннем ці шкодай для здароўя, і пераходзіць на «падтрымліваючы, эмпатычны тон». Кампанія сцвярджае, што апошняя версія ChatGPT (GPT-5) здольная распазнаваць прыкметы маніі, псіхозу і дэзарыентацыі і «дээскаляваць» небяспечныя дыялогі.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.