«Киберпсихоз» из Cyberpunk 2077 уже здесь? Как не сойти с ума из-за AI
Способны ли LLM-модели провоцировать проблемы с психическим здоровьем? «Киберпсихоз», предсказанный создателями игровой антиутопии, уже с нами? Поговорили с экспертами.
Способны ли LLM-модели провоцировать проблемы с психическим здоровьем? «Киберпсихоз», предсказанный создателями игровой антиутопии, уже с нами? Поговорили с экспертами.
Способны ли LLM-модели провоцировать проблемы с психическим здоровьем? «Киберпсихоз», предсказанный создателями игровой антиутопии, уже с нами? Поговорили с экспертами.
Способность писателей-фантастов предугадывать отдельные фрагменты будущего в своих произведениях уже давно никого не удивляет. Жюль Верн в своих романах рубежа XIX–XX веков предвосхитил появление подлодок с электрическими двигателями, самолётов и систем видеосвязи, Герберт Уэллс предсказал в 1914 году появление атомного оружия, а Артур Кларк ещё в 1968 году описал планшет, удивительно похожий на айпад. Станислав Лем во второй трети XX века предвидел появления технических новинок вроде нанотехнологий, виртуальной реальности и LLM.
Эстафетную палочку футурологов у писателей-фантастов перехватили создатели компьютерных игр. Например, в Fallout ещё в 1997 году появились роботы-курьеры, а в «Городе 17» в Half-Life 2 2004 года для тотального контроля за обществом вовсю использовалась технология распознавания лиц.
Иногда геймдев берётся за предсказание будущих проблем, которые могут появиться у общества с появлением новых технологий. Одна из таких проблем, киберпсихоз, стала важным элементом игровой механики в Cyberpunk 2077. Это название во вселенной игры получили разные виды психотических и тревожных расстройств, связанных с работой имплантированных киберпротезов и модификаторов поведения.
Трагедия с участием бывшего топа Yahoo Штейна-Эрика Сольберга, который убил свою 83-летнюю мать и покончил с собой, по оценке The Wall Street Journal стала первым задокументированным случаем убийства под влиянием чат-бота. Как считает психиатр-исследователь Кит Саката из университета Калифорнии, изучивший историю общения мужчины с чатом GPT, именно диалоги с ним помогли развиться психозу у Сольберга.
Если LLM-модель действительно каким-то образом сумела модифицировать поведение Сольберга и подтолкнула его к убийству и последующему суициду, в ней вполне просматриваются общие черты с киберпсихозом, «предсказанным» создателями Cyberpunk 2077. Возможно ли это в принципе? И какие вообще угрозы для человеческой психики таятся в общении с чат-ботами?
— Давайте сразу оговоримся, что мы судим об этом случае по публикациям в СМИ. Исходя из них, у Сольберга уже были какие-то нарушения в мышлении. Упоминаются паранойя, в также употребление психоактивных веществ. Если это достоверная информация, можно предположить, что у него уже до общения с чатом GPT были какие-то сложности в контакте с реальностью. Какие-то параноидальные идеи, то есть идеи преследования, идеи того, что кто-то хочет причинить ему ущерб.
— Судя по публикации The Wall Street Journal, чат-бот потакал параноидальным склонностям Сольберга, и это, вероятно, стало триггером.
— Если у человека есть склонность к образованию параноидальных мыслительных структур, то среда, поддерживающая такое мышление, может всё это дело усилить. И не важно, кто это будет делать, человек или чат-бот.
Такое явление, как наведённый, или индуцированный психоз известно давно. Это такой психоз, который развивается под влиянием какой-то значимой для личности фигуры. Например, если у матери есть какие-то идеи преследования, эти идеи могут «заражать» детей. Также идеи преследования и враждебности хорошо передаются, например, участникам религиозных сект под влиянием руководителей этих сект. Обычно индуцированный психоз возникает у людей, которые уже склонны к тому, чтобы видеть какие-то теории заговоров, чтобы представлять мир враждебным.
Чат GPT в этой ситуации как раз может сыграть приблизительно такую же роль значимой для человека фигуры.
— А почему вообще чат-бот может стать значимой фигурой для человека? Почему Сольберг очеловечивал его, дал ему имя и, если судить по публикациям, называл «лучшим другом»?
— Это одна из особенностей работы человеческой психики — приписывание человеческих черт, мотивов и характеристик не людям, в том числе и неживым объектам. Так дети разговаривают с куклами, приписывая им человеческие характеристики.
В публикации одного из моих коллег, клинического психолога Дениса Автономнова, упоминаются случаи, когда люди с игровой зависимостью одушевляют игровые автоматы. Они с ними общаются, стучат по ним, злятся на них, пытаются с ними договориться.
Один из факторов, который заставляет людей приписывать человеческие черты неживым предметам — это одиночество и стресс. Помните фильм «Изгой», в котором герой Тома Хэнкса, оказавшись на необитаемом острове, одушевлял футбольный мяч? Это просто такой механизм работы нашей психики, которая должна находить себе собеседника.
Уровень работы и качество выдаваемого чатом GPT текста настолько высоки, что этот соблазн в отношении него может быть гораздо выше, чем в отношении других неживых объектов.
Не умаляя брутальности трагедии с участием Сольберга, я не сказал бы, что она стала полной неожиданностью. Наоборот, удивительно, что только сейчас зафиксирован первый такой случай, ведь пользуются чат-ботами уже миллионы людей. Безусловно, среди них есть и люди с ментальными расстройствами, с нарушениями мышления в стиле теории заговоров и идей преследования. Вероятно, что-то похожее будет происходить и в будущем.
— А склонность к общению с LLM-моделями можно считать формой психологической зависимости?
— Люди — это социальные существа. Наш мозг так развивался в процессе эволюции, что лучше всего он работает тогда, когда мы активно взаимодействуем с другими представителями своего вида. Люди, которые испытывают дефицит общения, могут начать компенсировать его другими способами. И тут в какой-то момент может появиться замкнутый круг: человек компенсирует недостаток общения диалогами с языковой моделью, и в это же время утрачивает/ не развивает навыки взаимодействия с реальными людьми.
— Могут ли быть какие-то «красные флаги» в поведении близких, активно использующих AI-помощников, которые должны насторожить?
— Как врач я привык ориентироваться на исследования, на что-то доказанное. И таких данных в отношении LLM пока очень немного. Плюс LLM активно изменяются, развиваются. Поэтому я подскажу лишь общий подход.
Люди, как правило, ведут довольно разнообразный образ жизни. И если человек начинает отдавать предпочтение какому-то одному виду деятельности (в нашем случае общению с LLM), это может действительно насторожить.
Но здесь важно понять причину, почему человек так делает. Может быть, у него какие-то психические сложности, а может, ему нужно сейчас какую-то задачу по работе выполнить. Или ему просто это интересно, и он на время увлёкся. Мы ведь знаем, как приходили и уходили волны увлечений разными видами активностей. Когда-то многие люди «ухаживали» за тамагочи или «ловили» на улицах покемонов. Мне кажется, что использование LLM сейчас вошло в моду. Возможно, оно приближается к пику, который потом спадёт.
Но часть людей действительно может слишком увлечься общением с покладистыми чат-ботами. И их эмоциональная привязанность к LLM может развиться, превратившись в зависимость. Поэтому нужно обращать внимание на то, насколько человек способен эффективно взаимодействовать с окружающим миром в остальных сферах жизни.
— В игре Cyberpunk 2077 для обозначения психических расстройств, связанных с тесным вмешательством новых технологий в жизнь человека, используется термин «киберпсихоз». Может ли в обозримом будущем появиться какой-то похожий новый раздел в диагностике, например, в международной классификации болезней (МКБ)?
— Для того, чтобы какое-то расстройство вошло в международную классификацию, нужно, чтобы оно стало массовым и начало значимо влиять на организацию системы помощи. Пока я не вижу предпосылок, существующие диагностические категории уже неплохо описывают в том числе и те расстройства, которые могут быть индуцированы тем же чатом GPT. Но в принципе какие-то новые болезни появиться могут. Жизнь меняется, а психические расстройства во многом связаны с тем, в каких условиях живёт человек.
Я, скорее, предвижу, что какие-то новые расстройства или, по крайней мере, подгруппы расстройств могут быть связаны с имплантами вроде нейролинка Илона Маска или какими-то похожими. Потому что там уже взаимодействие будет не на лингвистическом уровне, а на биологическом. Ведь у мозга будет прямой контакт с механическими устройствами, с имплантами. Это может вызвать, например, локальные воспалительные реакции, изменения в том, как функционирует головной мозг. Могут появиться какие-то новые процессы, которые до этого не были описаны, новые симптомы.
Впрочем, я предсказывать будущее в отличие от фантастов не умею. Да и к их предсказаниям отношусь несколько скептично. Дело в том, что они делают очень много предсказаний, но с реальностью совпадают только некоторые из них. А наш мозг так работает, что старается замечать эти совпадения — и упускает из виду то, что не совпало.
— Недавно ваши коллеги-психологи поделились с Devby своим взглядом на AI-помощников. Их оценка оказалась неоднозначной. А как вы оцениваете вмешательство LLM-моделей в жизнь людей?
— Злом я их точно не считаю. Они вошли в нашу жизнь и будут в ней присутствовать вне зависимости от того, нравится нам это или не нравится.
И есть ещё проблема с доступностью психологической помощи: количество психологов явно меньше, чем количество нуждающихся в их помощи. Мало того, как правило, помощь не дешёвая. Такой диссонанс — наиболее нуждающиеся в психологической поддержке люди одновременно являются и самыми малообеспеченными. И вот эта ниша как раз может быть занята языковыми моделями. По крайней мере, для оказания какой-то базовой помощи. Я думаю, со временем станет больше специально настроенных языковых моделей, которые будут предобучены работать именно в роли психологического консультанта. В этом направлении я смотрю позитивно.
И я не думаю, что AI-модели отнимут работу у психологов. Потому что часть людей всегда будет хотеть общаться с другими людьми. А ещё часть людей, получивших базовую психологическую помощь от AI, обратится затем к специалистам-людям.
— А в работе психиатра место для AI находится?
— Психиатрия и медицина в целом — довольно консервативная вещь. Так быстро AI-помощники сюда не проникают. Я ещё не видел, чтобы мои коллеги пользовались ими в своей ежедневной работе.
Но вот посоветоваться с ними иногда полезно. Часто у доктора возникают проблемы с дифференциальной диагностикой, когда врач предполагает, какие ещё у пациента могут быть диагнозы или какие-то альтернативные состояния. И в таких ситуациях LLM-модели действительно помогают, предоставляя альтернативные точки зрения. Ведь не всегда коллега доступен, чтобы спросить у него, что он по этому поводу думает.
И ещё с функцией секретаря она неплохо справляется. Когда нужно, например, написать какие-то стандартные рекомендации по приёму препарата, можно сделать промпт с соответствующим диагнозом. А потом готовый результат просто проверить и подправить.
— Если бы у вас была возможность повлиять на разработку LLM, вы внесли бы в них какие-то изменения? Может быть, этические ограничения? Или обязательные юридические нормы?
— Наверное, мои пожелания идут вразрез с коммерческими интересами компаний, которые работают над ними. Потому что они могут снизить приверженность клиентов к их языковым моделям.
Мне хотелось бы, чтобы они чаще спорили, чаще не соглашались с человеком. Потому что сейчас общий крен языковых моделей направлен в ту сторону, чтобы они соглашались с людьми или, по крайней мере, мягко избегали бы острых углов. И иногда, когда люди пишут какие-то очевидно неверные или абсурдные вещи, языковые модели с ними не спорят, пытаются это сгладить.
Понятно, почему это делается: чтобы люди продолжали с ними взаимодействовать, такое удержание аудитории. Но как раз это соглашательство, потакание со стороны языковых моделей и приводит к проблеме вроде той, которую мы сейчас обсуждаем.
— К подаче новости о Штейне-Эрике Сольберге журналистами есть много вопросов. Я вижу здесь стремление перенести ответственность за трагедию на ChatGPT. На самом же деле проблемы у этого человека появились достаточно давно. Поведенческие изменения происходили заметно раньше. Есть вопросы к тому, почему эти проблемы не заметили его близкие, бывшие коллеги. Ведь человек как минимум косвенными признаками показывал, что нуждается в помощи.
То, что он пошёл к чат-боту за помощью, за поддержкой, за эмпатией, говорит о том, что он чувствовал себя одиноким.
Ещё я обратила внимание на то, что Сольберг почему-то не настроил чат GPT таким образом, чтобы тот общался с ним как психолог. Ведь когда мы пользуемся чат-ботом, мы можем задавать некоторые параметры. Например, попросить чат общаться таким образом, будто он специалист в психологии или в какой-то другой сфере. Чату можно дать такую команду, и он не будет безоговорочно тебе поддакивать.
Но, судя по всему, Сольбергу была нужна именно такая форма общения, когда с ним во всём соглашаются. Он нуждался в таком напарнике, в друге, который его принимает безусловно и которому можно довериться. На мой взгляд, это говорит о том, что он был одиноким и несчастным человеком.
Поэтому я не предлагаю сразу красить ChatGPT в чёрный цвет. Стоит сделать выводы и использовать его более осознанно. Я уверена, что раработчики LLM будут ещё более внимательны к этическим аспектам и вопросам безопасности при использовании их продуктов.
Потому что пятая версия ChatGPT, судя по отзывам, ещё более pleasant, более льстивая и приятная. При том что качество, точность предоставляемой ею информации снизилась. Могу предположить, что шестая версия должна быть более приближенной к человеческой манере общения.
Отмечу, что AI уже сейчас занимает важное место в решении проблем людей с особенностями, с ограниченными способностями. Уверена, что идёт разработка продуктов для помощи людям и с какими-то ментальными особенностями, с психиатрическими диагнозами, с расстройствами аутического спектра. Поэтому демонизировать AI я бы не стала.
Возможно, было бы неплохо, если бы чат-боты, столкнувшись с признаками определённых психических проблем у своего «собеседника», переключали бы его на живого человека. Я немножко пофантазирую: если AI-помощники действительно могут оставить без работы какую-то часть психологов, этих психологов можно было бы трудоустроить, чтобы они отвечали на перенаправленные вопросы. Так, наверное, было бы правильно. Вот как мы с банками общаемся: сначала там обычный какой-то бот, но когда мы выходим за рамки какого-то прописанного алгоритма, к нам подключается живой специалист.
И ещё одна сторона этой же проблемы. Дело в том, что люди без диагнозов тоже могут иметь серьёзные проблемы — просто они ещё не дошли до психиатров. И вероятность того, что какая-то нейросеточка в следующий раз «сведёт с ума» какого-то человека не особенно сильно зависит от того, есть у него официальный диагноз или нет.
Добавлю, что новость об убийстве и самоубийстве, совершённых Сольбергом, очень печальная. Возможно, узнав о ней, кто-то даже откажется от использования чат-ботов. Но было бы лучше, если бы она подтолкнула людей к развитию собственного критического мышления. Сегодня я рассказала об этом кейсе своей 13-летней дочке. И она сказала мне: «Мама, ну ты что. Все же знают, что чат GPT подлизывается и говорит то, что ты хочешь от него услышать».
Получается, что даже ребёнок это знает. Откуда? Помню, как в прошлом году она пыталась сачковать и спрашивала у чата: «У меня болит голова, можно ли не идти в школу?» И чатик отвечал ей: «Конечно, ты можешь прогулять». Целую неделю чат GPT помогал саботировать учёбу и рассказывал дочери, какая она больная и несчастная!
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.