«Киберпсихоз» из Cyberpunk 2077 уже здесь? Как не сойти с ума из-за AI

Способны ли LLM-модели провоцировать проблемы с психическим здоровьем? «Киберпсихоз», предсказанный создателями игровой антиутопии, уже с нами? Поговорили с экспертами.

Оставить комментарий

Проблема, предсказанная в Cyberpunk 2077?

Способность писателей-фантастов предугадывать отдельные фрагменты будущего в своих произведениях уже давно никого не удивляет. Жюль Верн в своих романах рубежа XIX–XX веков предвосхитил появление подлодок с электрическими двигателями, самолётов и систем видеосвязи, Герберт Уэллс предсказал в 1914 году появление атомного оружия, а Артур Кларк ещё в 1968 году описал планшет, удивительно похожий на айпад. Станислав Лем во второй трети XX века предвидел появления технических новинок вроде нанотехнологий, виртуальной реальности и LLM.

Эстафетную палочку футурологов у писателей-фантастов перехватили создатели компьютерных игр. Например, в Fallout ещё в 1997 году появились роботы-курьеры, а в «Городе 17» в Half-Life 2 2004 года для тотального контроля за обществом вовсю использовалась технология распознавания лиц.

Человек, одержимый киберпсихозом, в представлении Gemini

Иногда геймдев берётся за предсказание будущих проблем, которые могут появиться у общества с появлением новых технологий. Одна из таких проблем, киберпсихоз, стала важным элементом игровой механики в Cyberpunk 2077. Это название во вселенной игры получили разные виды психотических и тревожных расстройств, связанных с работой имплантированных киберпротезов и модификаторов поведения. 

Трагедия с участием бывшего топа Yahoo Штейна-Эрика Сольберга, который убил свою 83-летнюю мать и покончил с собой, по оценке The Wall Street Journal стала первым задокументированным случаем убийства под влиянием чат-бота. Как считает психиатр-исследователь Кит Саката из университета Калифорнии, изучивший историю общения мужчины с чатом GPT, именно диалоги с ним помогли развиться психозу у Сольберга.

Если LLM-модель действительно каким-то образом сумела модифицировать поведение Сольберга и подтолкнула его к убийству и последующему суициду, в ней вполне просматриваются общие черты с киберпсихозом, «предсказанным» создателями Cyberpunk 2077. Возможно ли это в принципе? И какие вообще угрозы для человеческой психики таятся в общении с чат-ботами?

Владимир Пикиреня, врач-психиатр, кандидат медицинских наук, доцент. Сейчас работает в психиатрической больнице во Фромборке (Польша). Исследователь и популяризатор человеческой психиатрии, создатель и автор канала Psychiatry Humanity о психиатрии, наркологии и близких к ним явлениях.
— Давайте сразу оговоримся, что мы судим об этом случае по публикациям в СМИ. Исходя из них, у Сольберга уже были какие-то нарушения в мышлении. Упоминаются паранойя, в также употребление психоактивных веществ. Если это достоверная информация, можно предположить, что у него уже до общения с чатом GPT были какие-то сложности в контакте с реальностью. Какие-то параноидальные идеи, то есть идеи преследования, идеи того, что кто-то хочет причинить ему ущерб.

— Судя по публикации The Wall Street Journal, чат-бот потакал параноидальным склонностям Сольберга, и это, вероятно, стало триггером. 

— Если у человека есть склонность к образованию параноидальных мыслительных структур, то среда, поддерживающая такое мышление, может всё это дело усилить. И не важно, кто это будет делать, человек или чат-бот.

Такое явление, как наведённый, или индуцированный психоз известно давно. Это такой психоз, который развивается под влиянием какой-то значимой для личности фигуры. Например, если у матери есть какие-то идеи преследования, эти идеи могут «заражать» детей. Также идеи преследования и враждебности хорошо передаются, например, участникам религиозных сект под влиянием руководителей этих сект. Обычно индуцированный психоз возникает у людей, которые уже склонны к тому, чтобы видеть какие-то теории заговоров, чтобы представлять мир враждебным.

Чат GPT в этой ситуации как раз может сыграть приблизительно такую же роль значимой для человека фигуры.

Чат-бот в роли лучшего друга

— А почему вообще чат-бот может стать значимой фигурой для человека? Почему Сольберг очеловечивал его, дал ему имя и, если судить по публикациям, называл «лучшим другом»?

— Это одна из особенностей работы человеческой психики — приписывание человеческих черт, мотивов и характеристик не людям, в том числе и неживым объектам. Так дети разговаривают с куклами, приписывая им человеческие характеристики.

В публикации одного из моих коллег,  клинического психолога Дениса Автономнова, упоминаются случаи, когда люди с игровой зависимостью одушевляют игровые автоматы. Они с ними общаются, стучат по ним, злятся на них, пытаются с ними договориться.  

Один из факторов, который заставляет людей приписывать человеческие черты неживым предметам — это одиночество и стресс. Помните фильм «Изгой», в котором герой Тома Хэнкса, оказавшись на необитаемом острове, одушевлял футбольный мяч? Это просто такой механизм работы нашей психики, которая должна находить себе собеседника. 

Уровень работы и качество выдаваемого чатом GPT текста настолько высоки, что этот соблазн в отношении него может быть гораздо выше, чем в отношении других неживых объектов. 

Чат-бот в роли лучшего друга в представлении Gemini

Не умаляя брутальности трагедии с участием Сольберга, я не сказал бы, что она стала полной неожиданностью. Наоборот, удивительно, что только сейчас зафиксирован первый такой случай, ведь пользуются чат-ботами уже миллионы людей. Безусловно, среди них есть и люди с ментальными расстройствами, с нарушениями мышления в стиле теории заговоров и идей преследования. Вероятно, что-то похожее будет происходить и в будущем.

— А склонность к общению с LLM-моделями можно считать формой психологической зависимости?

— Люди — это социальные существа. Наш мозг так развивался в процессе эволюции, что лучше всего он работает тогда, когда мы активно взаимодействуем с другими представителями своего вида. Люди, которые испытывают дефицит общения, могут начать компенсировать его другими способами. И тут в какой-то момент может появиться замкнутый круг: человек компенсирует недостаток общения диалогами с языковой моделью, и в это же время утрачивает/ не развивает навыки взаимодействия с реальными людьми. 

— Могут ли быть какие-то «красные флаги» в поведении близких, активно использующих AI-помощников, которые должны насторожить? 

— Как врач я привык ориентироваться на исследования, на что-то доказанное. И таких данных в отношении LLM пока очень немного. Плюс LLM активно изменяются, развиваются. Поэтому я подскажу лишь общий подход.

Человек, который чрезмерно увлекается общением с чат-ботами в представлении Gemini

Люди, как правило, ведут довольно разнообразный образ жизни. И если человек начинает отдавать предпочтение какому-то одному виду деятельности (в нашем случае общению с LLM), это может действительно насторожить.

Но здесь важно понять причину, почему человек так делает. Может быть, у него какие-то психические сложности, а может, ему нужно сейчас какую-то задачу по работе выполнить. Или ему просто это интересно, и он на время увлёкся. Мы ведь знаем, как приходили и уходили волны увлечений разными видами активностей. Когда-то многие люди «ухаживали» за тамагочи или «ловили» на улицах покемонов. Мне кажется, что использование LLM сейчас вошло в моду. Возможно, оно приближается к пику, который потом спадёт.

Но часть людей действительно может слишком увлечься общением с покладистыми чат-ботами. И их эмоциональная привязанность к LLM может развиться, превратившись в зависимость. Поэтому нужно обращать внимание на то, насколько человек способен эффективно взаимодействовать с окружающим миром в остальных сферах жизни.

Взгляд психиатра на LLM

— В игре Cyberpunk 2077 для обозначения психических расстройств, связанных с тесным вмешательством новых технологий в жизнь человека, используется термин «киберпсихоз». Может ли в обозримом будущем появиться какой-то похожий новый раздел в диагностике, например, в международной классификации болезней (МКБ)?

— Для того, чтобы какое-то расстройство вошло в международную классификацию, нужно, чтобы оно стало массовым и начало значимо влиять на организацию системы помощи. Пока я не вижу предпосылок, существующие диагностические категории уже неплохо описывают в том числе и те расстройства, которые могут быть индуцированы тем же чатом GPT. Но в принципе какие-то новые болезни появиться могут. Жизнь меняется, а психические расстройства во многом связаны с тем, в каких условиях живёт человек.

Я, скорее, предвижу, что какие-то новые расстройства или, по крайней мере, подгруппы расстройств могут быть связаны с имплантами вроде нейролинка Илона Маска или какими-то похожими. Потому что там уже взаимодействие будет не на лингвистическом уровне, а на биологическом. Ведь у мозга будет прямой контакт с механическими устройствами, с имплантами. Это может вызвать, например, локальные воспалительные реакции, изменения в том, как функционирует головной мозг. Могут появиться какие-то новые процессы, которые до этого не были описаны, новые симптомы.

Впрочем, я предсказывать будущее в отличие от фантастов не умею. Да и к их предсказаниям отношусь несколько скептично. Дело в том, что они делают очень много предсказаний, но с реальностью совпадают только некоторые из них. А наш мозг так работает, что старается замечать эти совпадения — и упускает из виду то, что не совпало. 

— Недавно ваши коллеги-психологи поделились с Devby своим взглядом на AI-помощников. Их оценка оказалась неоднозначной. А как вы оцениваете вмешательство LLM-моделей в жизнь людей?

— Злом я их точно не считаю. Они вошли в нашу жизнь и будут в ней присутствовать вне зависимости от того, нравится нам это или не нравится.

И есть ещё проблема с доступностью психологической помощи: количество психологов явно меньше, чем количество нуждающихся в их помощи. Мало того, как правило, помощь не дешёвая. Такой диссонанс — наиболее нуждающиеся в психологической поддержке люди одновременно являются и самыми малообеспеченными. И вот эта ниша как раз может быть занята языковыми моделями. По крайней мере, для оказания какой-то базовой помощи. Я думаю, со временем станет больше специально настроенных языковых моделей, которые будут предобучены работать именно в роли психологического консультанта. В этом направлении я смотрю позитивно.

И я не думаю, что AI-модели отнимут работу у психологов. Потому что часть людей всегда будет хотеть общаться с другими людьми. А ещё часть людей, получивших базовую психологическую помощь от AI, обратится затем к специалистам-людям.

— А в работе психиатра место для AI находится?

— Психиатрия и медицина в целом — довольно консервативная вещь. Так быстро AI-помощники сюда не проникают. Я ещё не видел, чтобы мои коллеги пользовались ими в своей ежедневной работе.

Но вот посоветоваться с ними иногда полезно. Часто у доктора возникают проблемы с дифференциальной диагностикой, когда врач предполагает, какие ещё у пациента могут быть диагнозы или какие-то альтернативные состояния. И в таких ситуациях LLM-модели действительно помогают, предоставляя альтернативные точки зрения. Ведь не всегда коллега доступен, чтобы спросить у него, что он по этому поводу думает.

И ещё с функцией секретаря она неплохо справляется. Когда нужно, например, написать какие-то стандартные рекомендации по приёму препарата, можно сделать промпт с соответствующим диагнозом. А потом готовый результат просто проверить и подправить.

—  Если бы у вас была возможность повлиять на разработку LLM, вы внесли бы в них какие-то изменения? Может быть, этические ограничения? Или обязательные юридические нормы?

— Наверное, мои пожелания идут вразрез с коммерческими интересами компаний, которые работают над ними. Потому что они могут снизить приверженность клиентов к их языковым моделям.

Мне хотелось бы, чтобы они чаще спорили, чаще не соглашались с человеком. Потому что сейчас общий крен языковых моделей направлен в ту сторону, чтобы они соглашались с людьми или, по крайней мере, мягко избегали бы острых углов. И иногда, когда люди пишут какие-то очевидно неверные или абсурдные вещи, языковые модели с ними не спорят, пытаются это сгладить.

Понятно, почему это делается: чтобы люди продолжали с ними взаимодействовать, такое удержание аудитории. Но как раз это соглашательство, потакание со стороны языковых моделей и приводит к проблеме вроде той, которую мы сейчас обсуждаем.

«Чат, у меня болит голова, можно ли не идти в школу?»

Диана Брилюк, T-shape специалист (интегральный психолог с десятилетним опытом, математик, аналитик, embodiment facilitator и mindfulness teacher).
— К подаче новости о Штейне-Эрике Сольберге журналистами есть много вопросов. Я вижу здесь стремление перенести ответственность за трагедию на ChatGPT. На самом же деле проблемы у этого человека появились достаточно давно. Поведенческие изменения происходили заметно раньше. Есть вопросы к тому, почему эти проблемы не заметили его близкие, бывшие коллеги. Ведь человек как минимум косвенными признаками показывал, что нуждается в помощи.

То, что он пошёл к чат-боту за помощью, за поддержкой, за эмпатией, говорит о том, что он чувствовал себя одиноким.

Ещё я обратила внимание на то, что Сольберг почему-то не настроил чат GPT таким образом, чтобы тот общался с ним как психолог. Ведь когда мы пользуемся чат-ботом, мы можем задавать некоторые параметры. Например, попросить чат общаться таким образом, будто он специалист в психологии или в какой-то другой сфере. Чату можно дать такую команду, и он не будет безоговорочно тебе поддакивать. 

Но, судя по всему, Сольбергу была нужна именно такая форма общения, когда с ним во всём соглашаются. Он нуждался в таком напарнике, в друге, который его принимает безусловно и которому можно довериться. На мой взгляд, это говорит о том, что он был одиноким и несчастным человеком. 

Поэтому я не предлагаю сразу красить ChatGPT в чёрный цвет. Стоит сделать выводы и использовать его более осознанно. Я уверена, что раработчики LLM будут ещё более внимательны к этическим аспектам и вопросам безопасности при использовании их продуктов.

Потому что пятая версия ChatGPT, судя по отзывам, ещё более pleasant, более льстивая и приятная. При том что качество, точность предоставляемой ею информации снизилась. Могу предположить, что шестая версия должна быть более приближенной к человеческой манере общения.

Отмечу, что AI уже сейчас занимает важное место в решении проблем людей с особенностями, с ограниченными способностями. Уверена, что идёт разработка продуктов для помощи людям и с какими-то ментальными особенностями, с психиатрическими диагнозами, с расстройствами аутического спектра. Поэтому демонизировать AI я бы не стала.

Возможно, было бы неплохо, если бы чат-боты, столкнувшись с признаками определённых психических проблем у своего «собеседника», переключали бы его на живого человека. Я немножко пофантазирую: если AI-помощники действительно могут оставить без работы какую-то часть психологов, этих психологов можно было бы трудоустроить, чтобы они отвечали на перенаправленные вопросы. Так, наверное, было бы правильно. Вот как мы с банками общаемся: сначала там обычный какой-то бот, но когда мы выходим за рамки какого-то прописанного алгоритма, к нам подключается живой специалист.

И ещё одна сторона этой же проблемы. Дело в том, что люди без диагнозов тоже могут иметь серьёзные проблемы — просто они ещё не дошли до психиатров. И вероятность того, что какая-то нейросеточка в следующий раз «сведёт с ума» какого-то человека не особенно сильно зависит от того, есть у него официальный диагноз или нет.

Добавлю, что новость об убийстве и самоубийстве, совершённых Сольбергом, очень печальная. Возможно, узнав о ней, кто-то даже откажется от использования чат-ботов. Но было бы лучше, если бы она подтолкнула людей к развитию собственного критического мышления. Сегодня я рассказала об этом кейсе своей 13-летней дочке. И она сказала мне: «Мама, ну ты что. Все же знают, что чат GPT подлизывается и говорит то, что ты хочешь от него услышать».

Получается, что даже ребёнок это знает. Откуда? Помню, как в прошлом году она пыталась сачковать и спрашивала у чата: «У меня болит голова, можно ли не идти в школу?» И чатик отвечал ей: «Конечно, ты можешь прогулять». Целую неделю чат GPT помогал саботировать учёбу и рассказывал дочери, какая она больная и несчастная!

«Это как сигареты или алкоголь». Можно ли ходить к ChatGPT, а не к психологу? Спросили у психологов
По теме
«Это как сигареты или алкоголь». Можно ли ходить к ChatGPT, а не к психологу? Спросили у психологов
«Даже демократиям будет непросто удержаться от соблазна». Почему церковь видит угрозу в AI 
По теме
«Даже демократиям будет непросто удержаться от соблазна». Почему церковь видит угрозу в AI
Ap$ent: AI создаёт «стену из шлака» между музыкантами и слушателями
По теме
Ap$ent: AI создаёт «стену из шлака» между музыкантами и слушателями

Читать на dev.by