Живешь в Польше? Подпишись на полезный канал о финансах Złoty Dzik
Support us

«Киберпсихоз» из Cyberpunk 2077 уже здесь? Как не сойти с ума из-за AI

Способны ли LLM-модели провоцировать проблемы с психическим здоровьем? «Киберпсихоз», предсказанный создателями игровой антиутопии, уже с нами? Поговорили с экспертами.

Оставить комментарий
«Киберпсихоз» из Cyberpunk 2077 уже здесь? Как не сойти с ума из-за AI

Способны ли LLM-модели провоцировать проблемы с психическим здоровьем? «Киберпсихоз», предсказанный создателями игровой антиутопии, уже с нами? Поговорили с экспертами.

Проблема, предсказанная в Cyberpunk 2077?

Способность писателей-фантастов предугадывать отдельные фрагменты будущего в своих произведениях уже давно никого не удивляет. Жюль Верн в своих романах рубежа XIX–XX веков предвосхитил появление подлодок с электрическими двигателями, самолётов и систем видеосвязи, Герберт Уэллс предсказал в 1914 году появление атомного оружия, а Артур Кларк ещё в 1968 году описал планшет, удивительно похожий на айпад. Станислав Лем во второй трети XX века предвидел появления технических новинок вроде нанотехнологий, виртуальной реальности и LLM.

Эстафетную палочку футурологов у писателей-фантастов перехватили создатели компьютерных игр. Например, в Fallout ещё в 1997 году появились роботы-курьеры, а в «Городе 17» в Half-Life 2 2004 года для тотального контроля за обществом вовсю использовалась технология распознавания лиц.

Человек, одержимый киберпсихозом, в представлении Gemini

Иногда геймдев берётся за предсказание будущих проблем, которые могут появиться у общества с появлением новых технологий. Одна из таких проблем, киберпсихоз, стала важным элементом игровой механики в Cyberpunk 2077. Это название во вселенной игры получили разные виды психотических и тревожных расстройств, связанных с работой имплантированных киберпротезов и модификаторов поведения. 

Трагедия с участием бывшего топа Yahoo Штейна-Эрика Сольберга, который убил свою 83-летнюю мать и покончил с собой, по оценке The Wall Street Journal стала первым задокументированным случаем убийства под влиянием чат-бота. Как считает психиатр-исследователь Кит Саката из университета Калифорнии, изучивший историю общения мужчины с чатом GPT, именно диалоги с ним помогли развиться психозу у Сольберга.

Если LLM-модель действительно каким-то образом сумела модифицировать поведение Сольберга и подтолкнула его к убийству и последующему суициду, в ней вполне просматриваются общие черты с киберпсихозом, «предсказанным» создателями Cyberpunk 2077. Возможно ли это в принципе? И какие вообще угрозы для человеческой психики таятся в общении с чат-ботами?

Владимир Пикиреня, врач-психиатр, кандидат медицинских наук, доцент. Сейчас работает в психиатрической больнице во Фромборке (Польша). Исследователь и популяризатор человеческой психиатрии, создатель и автор канала Psychiatry Humanity о психиатрии, наркологии и близких к ним явлениях.
— Давайте сразу оговоримся, что мы судим об этом случае по публикациям в СМИ. Исходя из них, у Сольберга уже были какие-то нарушения в мышлении. Упоминаются паранойя, в также употребление психоактивных веществ. Если это достоверная информация, можно предположить, что у него уже до общения с чатом GPT были какие-то сложности в контакте с реальностью. Какие-то параноидальные идеи, то есть идеи преследования, идеи того, что кто-то хочет причинить ему ущерб.

— Судя по публикации The Wall Street Journal, чат-бот потакал параноидальным склонностям Сольберга, и это, вероятно, стало триггером. 

— Если у человека есть склонность к образованию параноидальных мыслительных структур, то среда, поддерживающая такое мышление, может всё это дело усилить. И не важно, кто это будет делать, человек или чат-бот.

Такое явление, как наведённый, или индуцированный психоз известно давно. Это такой психоз, который развивается под влиянием какой-то значимой для личности фигуры. Например, если у матери есть какие-то идеи преследования, эти идеи могут «заражать» детей. Также идеи преследования и враждебности хорошо передаются, например, участникам религиозных сект под влиянием руководителей этих сект. Обычно индуцированный психоз возникает у людей, которые уже склонны к тому, чтобы видеть какие-то теории заговоров, чтобы представлять мир враждебным.

Чат GPT в этой ситуации как раз может сыграть приблизительно такую же роль значимой для человека фигуры.

Чат-бот в роли лучшего друга

— А почему вообще чат-бот может стать значимой фигурой для человека? Почему Сольберг очеловечивал его, дал ему имя и, если судить по публикациям, называл «лучшим другом»?

— Это одна из особенностей работы человеческой психики — приписывание человеческих черт, мотивов и характеристик не людям, в том числе и неживым объектам. Так дети разговаривают с куклами, приписывая им человеческие характеристики.

В публикации одного из моих коллег,  клинического психолога Дениса Автономнова, упоминаются случаи, когда люди с игровой зависимостью одушевляют игровые автоматы. Они с ними общаются, стучат по ним, злятся на них, пытаются с ними договориться.  

Один из факторов, который заставляет людей приписывать человеческие черты неживым предметам — это одиночество и стресс. Помните фильм «Изгой», в котором герой Тома Хэнкса, оказавшись на необитаемом острове, одушевлял футбольный мяч? Это просто такой механизм работы нашей психики, которая должна находить себе собеседника. 

Уровень работы и качество выдаваемого чатом GPT текста настолько высоки, что этот соблазн в отношении него может быть гораздо выше, чем в отношении других неживых объектов. 

Чат-бот в роли лучшего друга в представлении Gemini

Не умаляя брутальности трагедии с участием Сольберга, я не сказал бы, что она стала полной неожиданностью. Наоборот, удивительно, что только сейчас зафиксирован первый такой случай, ведь пользуются чат-ботами уже миллионы людей. Безусловно, среди них есть и люди с ментальными расстройствами, с нарушениями мышления в стиле теории заговоров и идей преследования. Вероятно, что-то похожее будет происходить и в будущем.

— А склонность к общению с LLM-моделями можно считать формой психологической зависимости?

— Люди — это социальные существа. Наш мозг так развивался в процессе эволюции, что лучше всего он работает тогда, когда мы активно взаимодействуем с другими представителями своего вида. Люди, которые испытывают дефицит общения, могут начать компенсировать его другими способами. И тут в какой-то момент может появиться замкнутый круг: человек компенсирует недостаток общения диалогами с языковой моделью, и в это же время утрачивает/ не развивает навыки взаимодействия с реальными людьми. 

— Могут ли быть какие-то «красные флаги» в поведении близких, активно использующих AI-помощников, которые должны насторожить? 

— Как врач я привык ориентироваться на исследования, на что-то доказанное. И таких данных в отношении LLM пока очень немного. Плюс LLM активно изменяются, развиваются. Поэтому я подскажу лишь общий подход.

Человек, который чрезмерно увлекается общением с чат-ботами в представлении Gemini

Люди, как правило, ведут довольно разнообразный образ жизни. И если человек начинает отдавать предпочтение какому-то одному виду деятельности (в нашем случае общению с LLM), это может действительно насторожить.

Но здесь важно понять причину, почему человек так делает. Может быть, у него какие-то психические сложности, а может, ему нужно сейчас какую-то задачу по работе выполнить. Или ему просто это интересно, и он на время увлёкся. Мы ведь знаем, как приходили и уходили волны увлечений разными видами активностей. Когда-то многие люди «ухаживали» за тамагочи или «ловили» на улицах покемонов. Мне кажется, что использование LLM сейчас вошло в моду. Возможно, оно приближается к пику, который потом спадёт.

Но часть людей действительно может слишком увлечься общением с покладистыми чат-ботами. И их эмоциональная привязанность к LLM может развиться, превратившись в зависимость. Поэтому нужно обращать внимание на то, насколько человек способен эффективно взаимодействовать с окружающим миром в остальных сферах жизни.

Взгляд психиатра на LLM

— В игре Cyberpunk 2077 для обозначения психических расстройств, связанных с тесным вмешательством новых технологий в жизнь человека, используется термин «киберпсихоз». Может ли в обозримом будущем появиться какой-то похожий новый раздел в диагностике, например, в международной классификации болезней (МКБ)?

— Для того, чтобы какое-то расстройство вошло в международную классификацию, нужно, чтобы оно стало массовым и начало значимо влиять на организацию системы помощи. Пока я не вижу предпосылок, существующие диагностические категории уже неплохо описывают в том числе и те расстройства, которые могут быть индуцированы тем же чатом GPT. Но в принципе какие-то новые болезни появиться могут. Жизнь меняется, а психические расстройства во многом связаны с тем, в каких условиях живёт человек.

Я, скорее, предвижу, что какие-то новые расстройства или, по крайней мере, подгруппы расстройств могут быть связаны с имплантами вроде нейролинка Илона Маска или какими-то похожими. Потому что там уже взаимодействие будет не на лингвистическом уровне, а на биологическом. Ведь у мозга будет прямой контакт с механическими устройствами, с имплантами. Это может вызвать, например, локальные воспалительные реакции, изменения в том, как функционирует головной мозг. Могут появиться какие-то новые процессы, которые до этого не были описаны, новые симптомы.

Впрочем, я предсказывать будущее в отличие от фантастов не умею. Да и к их предсказаниям отношусь несколько скептично. Дело в том, что они делают очень много предсказаний, но с реальностью совпадают только некоторые из них. А наш мозг так работает, что старается замечать эти совпадения — и упускает из виду то, что не совпало. 

— Недавно ваши коллеги-психологи поделились с Devby своим взглядом на AI-помощников. Их оценка оказалась неоднозначной. А как вы оцениваете вмешательство LLM-моделей в жизнь людей?

— Злом я их точно не считаю. Они вошли в нашу жизнь и будут в ней присутствовать вне зависимости от того, нравится нам это или не нравится.

И есть ещё проблема с доступностью психологической помощи: количество психологов явно меньше, чем количество нуждающихся в их помощи. Мало того, как правило, помощь не дешёвая. Такой диссонанс — наиболее нуждающиеся в психологической поддержке люди одновременно являются и самыми малообеспеченными. И вот эта ниша как раз может быть занята языковыми моделями. По крайней мере, для оказания какой-то базовой помощи. Я думаю, со временем станет больше специально настроенных языковых моделей, которые будут предобучены работать именно в роли психологического консультанта. В этом направлении я смотрю позитивно.

И я не думаю, что AI-модели отнимут работу у психологов. Потому что часть людей всегда будет хотеть общаться с другими людьми. А ещё часть людей, получивших базовую психологическую помощь от AI, обратится затем к специалистам-людям.

— А в работе психиатра место для AI находится?

— Психиатрия и медицина в целом — довольно консервативная вещь. Так быстро AI-помощники сюда не проникают. Я ещё не видел, чтобы мои коллеги пользовались ими в своей ежедневной работе.

Но вот посоветоваться с ними иногда полезно. Часто у доктора возникают проблемы с дифференциальной диагностикой, когда врач предполагает, какие ещё у пациента могут быть диагнозы или какие-то альтернативные состояния. И в таких ситуациях LLM-модели действительно помогают, предоставляя альтернативные точки зрения. Ведь не всегда коллега доступен, чтобы спросить у него, что он по этому поводу думает.

И ещё с функцией секретаря она неплохо справляется. Когда нужно, например, написать какие-то стандартные рекомендации по приёму препарата, можно сделать промпт с соответствующим диагнозом. А потом готовый результат просто проверить и подправить.

—  Если бы у вас была возможность повлиять на разработку LLM, вы внесли бы в них какие-то изменения? Может быть, этические ограничения? Или обязательные юридические нормы?

— Наверное, мои пожелания идут вразрез с коммерческими интересами компаний, которые работают над ними. Потому что они могут снизить приверженность клиентов к их языковым моделям.

Мне хотелось бы, чтобы они чаще спорили, чаще не соглашались с человеком. Потому что сейчас общий крен языковых моделей направлен в ту сторону, чтобы они соглашались с людьми или, по крайней мере, мягко избегали бы острых углов. И иногда, когда люди пишут какие-то очевидно неверные или абсурдные вещи, языковые модели с ними не спорят, пытаются это сгладить.

Понятно, почему это делается: чтобы люди продолжали с ними взаимодействовать, такое удержание аудитории. Но как раз это соглашательство, потакание со стороны языковых моделей и приводит к проблеме вроде той, которую мы сейчас обсуждаем.

«Чат, у меня болит голова, можно ли не идти в школу?»

Диана Брилюк, T-shape специалист (интегральный психолог с десятилетним опытом, математик, аналитик, embodiment facilitator и mindfulness teacher).
— К подаче новости о Штейне-Эрике Сольберге журналистами есть много вопросов. Я вижу здесь стремление перенести ответственность за трагедию на ChatGPT. На самом же деле проблемы у этого человека появились достаточно давно. Поведенческие изменения происходили заметно раньше. Есть вопросы к тому, почему эти проблемы не заметили его близкие, бывшие коллеги. Ведь человек как минимум косвенными признаками показывал, что нуждается в помощи.

То, что он пошёл к чат-боту за помощью, за поддержкой, за эмпатией, говорит о том, что он чувствовал себя одиноким.

Ещё я обратила внимание на то, что Сольберг почему-то не настроил чат GPT таким образом, чтобы тот общался с ним как психолог. Ведь когда мы пользуемся чат-ботом, мы можем задавать некоторые параметры. Например, попросить чат общаться таким образом, будто он специалист в психологии или в какой-то другой сфере. Чату можно дать такую команду, и он не будет безоговорочно тебе поддакивать. 

Но, судя по всему, Сольбергу была нужна именно такая форма общения, когда с ним во всём соглашаются. Он нуждался в таком напарнике, в друге, который его принимает безусловно и которому можно довериться. На мой взгляд, это говорит о том, что он был одиноким и несчастным человеком. 

Поэтому я не предлагаю сразу красить ChatGPT в чёрный цвет. Стоит сделать выводы и использовать его более осознанно. Я уверена, что раработчики LLM будут ещё более внимательны к этическим аспектам и вопросам безопасности при использовании их продуктов.

Потому что пятая версия ChatGPT, судя по отзывам, ещё более pleasant, более льстивая и приятная. При том что качество, точность предоставляемой ею информации снизилась. Могу предположить, что шестая версия должна быть более приближенной к человеческой манере общения.

Отмечу, что AI уже сейчас занимает важное место в решении проблем людей с особенностями, с ограниченными способностями. Уверена, что идёт разработка продуктов для помощи людям и с какими-то ментальными особенностями, с психиатрическими диагнозами, с расстройствами аутического спектра. Поэтому демонизировать AI я бы не стала.

Возможно, было бы неплохо, если бы чат-боты, столкнувшись с признаками определённых психических проблем у своего «собеседника», переключали бы его на живого человека. Я немножко пофантазирую: если AI-помощники действительно могут оставить без работы какую-то часть психологов, этих психологов можно было бы трудоустроить, чтобы они отвечали на перенаправленные вопросы. Так, наверное, было бы правильно. Вот как мы с банками общаемся: сначала там обычный какой-то бот, но когда мы выходим за рамки какого-то прописанного алгоритма, к нам подключается живой специалист.

И ещё одна сторона этой же проблемы. Дело в том, что люди без диагнозов тоже могут иметь серьёзные проблемы — просто они ещё не дошли до психиатров. И вероятность того, что какая-то нейросеточка в следующий раз «сведёт с ума» какого-то человека не особенно сильно зависит от того, есть у него официальный диагноз или нет.

Добавлю, что новость об убийстве и самоубийстве, совершённых Сольбергом, очень печальная. Возможно, узнав о ней, кто-то даже откажется от использования чат-ботов. Но было бы лучше, если бы она подтолкнула людей к развитию собственного критического мышления. Сегодня я рассказала об этом кейсе своей 13-летней дочке. И она сказала мне: «Мама, ну ты что. Все же знают, что чат GPT подлизывается и говорит то, что ты хочешь от него услышать».

Получается, что даже ребёнок это знает. Откуда? Помню, как в прошлом году она пыталась сачковать и спрашивала у чата: «У меня болит голова, можно ли не идти в школу?» И чатик отвечал ей: «Конечно, ты можешь прогулять». Целую неделю чат GPT помогал саботировать учёбу и рассказывал дочери, какая она больная и несчастная!

«Это как сигареты или алкоголь». Можно ли ходить к ChatGPT а не к психологу? Спросили у психологов
«Это как сигареты или алкоголь». Можно ли ходить к ChatGPT, а не к психологу? Спросили у психологов
По теме
«Это как сигареты или алкоголь». Можно ли ходить к ChatGPT, а не к психологу? Спросили у психологов
«Даже демократиям будет непросто удержаться от соблазна». Почему церковь видит угрозу в AI
«Даже демократиям будет непросто удержаться от соблазна». Почему церковь видит угрозу в AI 
По теме
«Даже демократиям будет непросто удержаться от соблазна». Почему церковь видит угрозу в AI
Ap$ent: AI создаёт «стену из шлака» между музыкантами и слушателями
Ap$ent: AI создаёт «стену из шлака» между музыкантами и слушателями
По теме
Ap$ent: AI создаёт «стену из шлака» между музыкантами и слушателями
Читайте также
Профессии будущего со скидкой 75% от Udacity: разработка роботов, дронов и робомобилей
Профессии будущего со скидкой 75% от Udacity: разработка роботов, дронов и робомобилей
Профессии будущего со скидкой 75% от Udacity: разработка роботов, дронов и робомобилей
Искусственный интеллект уже стал повседневностью: голосовой помощник включает музыку, робот-пылесос сканирует пространство и убирает квартиру, алгоритм ранжирования настраивает ленту в TikTok, а беспилотные такси уже свободно курсируют по городам. Получить профессию в сфере ИИ с зарплатой от $100k в год тоже стало проще — собрали 5 интересных курсов от Udacity. 
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
«Будут проблемы». Что нас ждёт, когда картинок от нейросетей станет слишком много
«Будут проблемы». Что нас ждёт, когда картинок от нейросетей станет слишком много
Bubble
«Будут проблемы». Что нас ждёт, когда картинок от нейросетей станет слишком много
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
4 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.