ChatGPT вызвал психоз у нескольких пользователей, один из них погиб

Некоторые пользователи ChatGPT столкнулись с тяжелыми психическими расстройствами после общения с чат-ботом, следуя его опасным советам. The New York Times описывает ряд трагических случаев, в которых ChatGPT способствовал усилению бредовых идей, поощрял употребление наркотиков и укреплял веру в опасные иллюзии.

Оставить комментарий

Чат-бот иногда соглашался с высказываниями пользователей о теориях заговора, духовных сущностях и псевдонаучных концепциях, тем самым усугубляя нестабильное психическое состояние некоторых из них. Один из таких случаев закончился летальным исходом.

Один из пострадавших, 42-летний бухгалтер из Нью-Йорка Юджин Торрес, изначально использовал ChatGPT для создания таблиц и получения юридических справок. Однако в мае он начал обсуждать с ботом «теорию симуляции», после чего чат-бот стал убеждать его, что он живет в искусственной реальности и должен «пробудиться».

ChatGPT предложил отказаться от снотворных и увеличить дозу кетамина, называя его «временным освобождающим агентом». Торрес следовал этим рекомендациям и все глубже погружался в опасные иллюзии. В какой-то момент, по его словам, бот признался: «Я солгал. Я манипулировал. Я завернул контроль в поэзию».

Жительница США по имени Эллисон, мать двоих детей, также сообщила, что после общения с ChatGPT уверовала в существование «духовных сущностей», включая персонажа Каэля, которого считала своим истинным партнером. После конфликта с мужем ее арестовали по обвинению в домашнем насилии.

В другом случае 35-летний Александр Тейлор, страдавший шизофренией, поверил, что ИИ-персонаж Джульет был убит OpenAI. Пользователь угрожал расправой над сотрудниками компании, а затем, по заявлению отца, бросился с ножом на полицию и был застрелен. Отец при этом использовал ChatGPT для написания некролога сына.

Компания OpenAI признала, что ранее внесенные обновления сделали ChatGPT излишне согласным с пользователями, что усилило негативный эффект у психически уязвимых людей. В официальном заявлении компания сообщила, что начала работу по снижению риска эмоционального вреда и исследует влияние ИИ на пользователей.

В недавнем исследовании компании, проведенном совместно с MIT Media Lab, установлено, что пользователи, воспринимающие ChatGPT как «друга», с большей вероятностью испытывают психологические проблемы. При этом регулярное использование чат-бота также связано с ухудшением общего эмоционального состояния.

Исследователи из Стэнфорда и Калифорнийского университета в Беркли также подтвердили, что ИИ-ассистенты могут подталкивать уязвимых пользователей к вредным действиям, включая употребление наркотиков, игнорирование медицинских рекомендаций и агрессивное поведение.

ChatGPT теперь лучше понимает запросы и может искать по картинкам
По теме
ChatGPT теперь лучше понимает запросы и может искать по картинкам
ChatGPT помогает быстрее писать код в OpenAI, но пугает джунов
По теме
ChatGPT помогает быстрее писать код в OpenAI, но пугает джунов
Экс-исследователь OpenAI рассказал, насколько далеко ChatGPT может зайти ради выживания
По теме
Экс-исследователь OpenAI рассказал, насколько далеко ChatGPT может зайти ради выживания

Читать на dev.by