«Кіберпсіхоз» з Cyberpank 2077 ужо тут? Як не з'ехаць з глузду з-за AI
Ці здольныя мадэлі LLM выклікаць праблемы з псіхічным здароўем? «Кіберпсіхоз», прадказаны стваральнікамі гульнявой антыўтопіі, ужо з намі? Пагутарылі з экспертамі.
Ці здольныя мадэлі LLM выклікаць праблемы з псіхічным здароўем? «Кіберпсіхоз», прадказаны стваральнікамі гульнявой антыўтопіі, ужо з намі? Пагутарылі з экспертамі.
Ці здольныя мадэлі LLM выклікаць праблемы з псіхічным здароўем? «Кіберпсіхоз», прадказаны стваральнікамі гульнявой антыўтопіі, ужо з намі? Пагутарылі з экспертамі.
Здольнасць пісьменнікаў-фантастаў прадказваць асобныя фрагменты будучыні ў сваіх творах ужо даўно нікога не здзіўляе. Жуль Верн у сваіх раманах мяжы XIX–XX стагоддзяў прадвызначыў з’яўленне падводных лодак з электрычнымі рухавікамі, самалётаў і сістэм відэасувязі, Герберт Уэлс прадказаў у 1914 годзе з’яўленне атамнай зброі, а Артур Кларк яшчэ ў 1968 годзе апісаў планшэт, які дзіўна падобны на айпад. Станіслаў Лем у другой трэці XX стагоддзя прадбачыў з’яўленне тэхнічных навінак накшталт нанатэхналогій, віртуальнай рэальнасці і LLM.
Эстафетную палачку футуролагаў у пісьменнікаў-фантастаў перахапілі стваральнікі камп’ютарных гульняў. Напрыклад, у Fallout яшчэ ў 1997 годзе з’явіліся робаты-кур’еры, а ў «Горадзе 17» у Half-Life 2 2004 года для татальнага кантролю за грамадствам на поўную выкарыстоўвалася тэхналогія распазнавання твараў.
Іншым разам геймдэв бярэцца за прадказанне будучых праблем, якія могуць з’явіцца ў грамадства са з’яўленнем новых тэхналогій. Адна з такіх праблем, кіберпсіхоз, стала важным элементам гульнявой механікі ў Cyberpunk 2077. Гэтую назву ў сусвеце гульні атрымалі розныя віды псіхатычных і трывожных расстройстваў, звязаных з працай імплантаваных кіберпратэзаў і мадыфікатараў паводзін.
Трагедыя з удзелам былога топ-менеджара Yahoo Штэйна-Эрыка Сольберга, які забіў сваю 83-гадовую маці і скончыў жыццё самагубствам, па ацэнцы The Wall Street Journal стала першым задакументаваным выпадкам забойства пад уплывам чат-бота. Як лічыць псіхіятр-даследчык Кіт Саката з універсітэта Каліфорніі, які вывучыў гісторыю зносін мужчыны з чатам GPT, менавіта дыялогі з ім дапамаглі развіцца псіхозу ў Сольберга.
Калі LLM-мадэль сапраўды нейкім чынам здолела мадыфікаваць паводзіны Сольберга і падштурхнула яго да забойства і наступнага суіцыду, у ёй цалкам праглядаюцца агульныя рысы з кіберпсіхозам, «прадказаным» стваральнікамі Cyberpunk 2077. Ці магчыма гэта ў прынцыпе? І якія ўвогуле пагрозы для чалавечай псіхікі хаваюцца ў зносінах з чат-ботамі?
— Давайце адразу агаворымся, што мы разважаем пра гэты выпадак па публікацыях у СМІ. Зыходзячы з іх, у Сольберга ўжо былі нейкія парушэнні ў мысленні. Узгадваюцца параноя, а таксама ўжыванне псіхаактыўных рэчываў. Калі гэта дакладная інфармацыя, можна меркаваць, што ў яго ўжо да зносін з чатам GPT былі нейкія складанасці ў кантакце з рэальнасцю. Нейкія паранаідальныя ідэі, гэта значыць ідэі пераследу, ідэі таго, што хтосьці хоча ўчыніць яму шкоду.
— Мяркуючы па публікацыі The Wall Street Journal, чат-бот патураў паранаідальным схільнасцям Сольберга, і гэта, верагодна, стала трыгерам.
— Калі ў чалавека ёсць схільнасць да ўтварэння паранаідальных мысленчых структур, то асяроддзе, якое падтрымлівае такое мысленне, можа ўсё гэта ўзмацніць. І не важна, хто гэта будзе рабіць, чалавек ці чат-бот.
Такая з’ява, як наведзены, або індукаваны псіхоз вядомая даўно. Гэта такі псіхоз, які развіваецца пад уплывам нейкай значнай для асобы постаці. Напрыклад, калі ў маці ёсць нейкія ідэі пераследу, гэтыя ідэі могуць «заражаць» дзяцей. Таксама ідэі пераследу і варожасці добра перадаюцца, напрыклад, удзельнікам рэлігійных сект пад уплывам кіраўнікоў гэтых сект. Звычайна індукаваны псіхоз узнікае ў людзей, якія ўжо схільныя да таго, каб бачыць нейкія тэорыі змовы, каб уяўляць свет варожым.
Чат GPT у гэтай сітуацыі якраз можа сыграць прыблізна такую ж ролю значнай для чалавека постаці.
— А чаму наогул чат-бот можа стаць значнай постаццю для чалавека? Чаму Сольберг ачалавечваў яго, даў яму імя і, калі меркаваць па публікацыях, называў «лепшым сябрам»?
— Гэта адна з асаблівасцяў працы чалавечай псіхікі — прыпісванне чалавечых рыс, матываў і характарыстык не людзям, у тым ліку і нежывым аб’ектам. Так дзеці размаўляюць з лялькамі, надаючы ім чалавечыя характарыстыкі.
У публікацыі аднаго з маіх калег, клінічнага псіхолага Дзяніса Аўтаномнава, узгадваюцца выпадкі, калі людзі з гульнявой залежнасцю адушаўляюць гульнявыя аўтаматы. Яны з імі размаўляюць, стукаюць па іх, злуюцца на іх, спрабуюць з імі дамовіцца.
Адзін з фактараў, які прымушае людзей прыпісваць чалавечыя рысы нежывым прадметам — гэта самота і стрэс. Памятаеце фільм «Выгнаннік», у якім герой Тома Хэнкса, які апынуўся на ненаселеным востраве, адушаўляў футбольны мяч? Гэта проста такі механізм працы нашай псіхікі, якая павінна знаходзіць сабе суразмоўцу.
Узровень працы і якасць тэксту, што выдае чат GPT, настолькі высокія, што гэта спакуса ў адносінах да яго можа быць значна вышэйшая, чым у адносінах да іншых нежывых аб’ектаў.
Не змяншаючы брутальнасці трагедыі з удзелам Сольберга, я не сказаў бы, што яна стала поўнай нечаканасцю. Наадварот, дзіўна, што толькі зараз зафіксаваны першы такі выпадак, бо карыстаюцца чат-ботамі ўжо мільёны людзей. Безумоўна, сярод іх ёсць і людзі з ментальнымі расстройствамі, з парушэннямі мыслення ў стылі тэорыі змовы і ідэй пераследу. Верагодна, нешта падобнае будзе адбывацца і ў будучыні.
— А схільнасць да зносін з LLM-мадэлямі можна лічыць формай псіхалагічнай залежнасці?
— Людзі — гэта сацыяльныя істоты. Наш мозг так развіваўся ў працэсе эвалюцыі, што лепш за ўсё ён працуе тады, калі мы актыўна ўзаемадзейнічаем з іншымі прадстаўнікамі свайго віду. Людзі, якія адчуваюць дэфіцыт зносін, могуць пачаць кампенсаваць яго іншымі спосабамі. І тут у нейкі момант можа з’явіцца замкнёнае кола: чалавек кампенсуе недахоп зносін дыялогамі з моўнай мадэллю, і ў гэты ж час страчвае/не развівае навыкі ўзаемадзеяння з рэальнымі людзьмі.
— Ці могуць быць нейкія «чырвоныя сцяжкі» у паводзінах блізкіх, якія актыўна выкарыстоўваюць AI-памочнікаў, што павінны насцярожыць?
— Як доктар я прызвычаіўся арыентавацца на даследаванні, на нешта даказанае. І такіх дадзеных у дачыненні да LLM пакуль вельмі мала. Плюс LLM актыўна змяняюцца, развіваюцца. Таму я падкажу толькі агульны падыход.
Людзі, як правіла, вядуць даволі разнастайны лад жыцця. І калі чалавек пачынае аддаваць перавагу нейкаму аднаму віду дзейнасці (у нашым выпадку зносінам з LLM), гэта сапраўды можа насцярожыць.
Але тут важна зразумець прычыну, чаму чалавек так робіць. Магчыма, у яго нейкія псіхічныя складанасці, а можа, яму трэба зараз нейкую задачу па рабоце выканаць. Ці яму проста гэта цікава, і ён на час захапіўся. Мы ж ведаем, як прыходзілі і сыходзілі хвалі захапленняў рознымі відамі актыўнасцяў. Калісьці многія людзі «даглядалі» тамагочы або «лавілі» на вуліцах пакемонаў. Мне здаецца, што выкарыстанне LLM зараз увайшло ў моду. Магчыма, яно набліжаецца да піку, які потым спадзе.
Але частка людзей сапраўды можа занадта захапіцца зносінамі з паслухмянымі чат-ботамі. І іх эмацыйная прывязанасць да LLM можа развіцца, ператварыўшыся ў залежнасць. Таму трэба звяртаць увагу на тое, наколькі чалавек здольны эфектыўна ўзаемадзейнічаць з навакольным светам у астатніх сферах жыцця.
— У гульні Cyberpunk 2077 для пазначэння псіхічных расстройстваў, звязаных са шчыльным умяшаннем новых тэхналогій у жыццё чалавека, выкарыстоўваецца тэрмін «кіберпсіхоз». Ці можа ў агляднай будучыні з’явіцца нейкі падобны новы раздзел у дыягностыцы, напрыклад, у міжнароднай класіфікацыі хвароб (МКБ)?
— Для таго, каб нейкае расстройства ўвайшло ў міжнародную класіфікацыю, трэба, каб яно стала масавым і пачало значна ўплываць на арганізацыю сістэмы дапамогі. Пакуль я не бачу перадумоў, існуючыя дыягнастычныя катэгорыі ўжо нядрэнна апісваюць у тым ліку і тыя расстройствы, якія могуць быць індукаваны тым жа чатам GPT. Але ў прынцыпе нейкія новыя хваробы з’явіцца могуць. Жыццё змяняецца, а псіхічныя расстройствы шмат у чым звязаны з тым, у якіх умовах жыве чалавек.
Я, хутчэй, прадбачу, што нейкія новыя расстройствы або, прынамсі, падгрупы расстройстваў могуць быць звязаны з імплантамі накшталт нейралінка Ілана Маска або нейкімі падобнымі. Таму што там ужо ўзаемадзеянне будзе не на лінгвістычным узроўні, а на біялагічным. Бо мозг будзе мець прамы кантакт з механічнымі прыладамі, з імплантамі. Гэта можа выклікаць, напрыклад, лакальныя запаленчыя рэакцыі, змены ў тым, як функцыянуе галаўны мозг. Могуць з’явіцца нейкія новыя працэсы, якія да гэтага не былі апісаны, новыя сімптомы.
Зрэшты, я прадказваць будучыню ў адрозненне ад фантастаў не ўмею. Ды і да іх прадказанняў стаўлюся некалькі скептычна. Справа ў тым, што яны робяць вельмі шмат прадказанняў, але з рэальнасцю супадаюць толькі некаторыя з іх. А наш мозг так працуе, што спрабуе заўважаць гэтыя супадзенні — і выпускае з-пад увагі тое, што не супала.
— Нядаўна вашы калегі-псіхолагі падзяліліся з Devby сваім поглядам на AI-асістэнтаў. Іх ацэнка аказалася неадназначнай. А як вы ацэньваеце ўмяшанне LLM-мадэляў у жыццё людзей?
— Злом я іх дакладна не лічу. Яны ўвайшлі ў наша жыццё і будуць у ім прысутнічаць незалежна ад таго, падабаецца нам гэта ці не падабаецца.
І ёсць яшчэ праблема з даступнасцю псіхалагічнай дапамогі: колькасць псіхолагаў яўна меншая, чым колькасць тых, хто мае патрэбу ў іх дапамозе. Мала таго, як правіла, дапамога не танная. Такі дысананс — людзі, якія маюць найбольшую патрэбу ў псіхалагічнай падтрымцы адначасова з’яўляюцца і самымі малазабяспечанымі. І вось гэтая ніша якраз можа быць занята моўнымі мадэлямі. Прынамсі, для аказання нейкай базавай дапамогі. Я думаю, з цягам часу стане больш спецыяльна наладжаных моўных мадэляў, якія будуць папярэдне навучаныя працаваць менавіта ў ролі псіхалагічнага кансультанта. У гэтым кірунку я гляджу пазітыўна.
І я не думаю, што AI-мадэлі адбяруць працу ў псіхолагаў. Таму што частка людзей заўсёды будзе хацець размаўляць з іншымі людзьмі. А яшчэ частка людзей, якія атрымалі базавую псіхалагічную дапамогу ад AI, звернецца затым да спецыялістаў-людзей.
— А ў працы псіхіятра месца для AI знаходзіцца?
— Псіхіятрыя і медыцына ў цэлым — даволі кансерватыўная рэч. Так хутка AI-памочнікі сюды не пранікаюць. Я яшчэ не бачыў, каб мае калегі карысталіся імі ў сваёй штодзённай працы.
Але вось параіцца з імі часам карысна. Часта ў доктара ўзнікаюць праблемы з дыферэнцыяльнай дыягностыкай, калі доктар мяркуе, якія яшчэ ў пацыента могуць быць дыягназы або нейкія альтэрнатыўныя станы. І ў такіх сітуацыях LLM-мадэлі сапраўды дапамагаюць, прадстаўляючы альтэрнатыўныя пункты гледжання. Бо не заўсёды калега даступны, каб спытаць у яго, што ён пра гэта думае.
І яшчэ з функцыяй сакратара яна нядрэнна спраўляецца. Калі трэба, напрыклад, напісаць нейкія стандартныя рэкамендацыі па прыёму прэпарата, можна зрабіць промпт з адпаведным дыягназам. А потым гатовы вынік проста праверыць і падправіць.
— Калі б у вас была магчымасць паўплываць на распрацоўку LLM, вы ўнеслі б у іх нейкія змены? Можа быць, этычныя абмежаванні? Ці абавязковыя юрыдычныя нормы?
— Напэўна, мае пажаданні ідуць насуперак камерцыйным інтарэсам кампаній, якія працуюць над імі. Таму што яны могуць знізіць прыхільнасць кліентаў да іх моўных мадэляў.
Мне хацелася б, каб яны часцей спрачаліся, часцей не згаджаліся з чалавекам. Таму што зараз агульны крэн моўных мадэляў накіраваны ў той бок, каб яны згаджаліся з людзьмі або, прынамсі, мякка пазбягалі б вострых вуглоў. І часам, калі людзі пішуць нейкія відавочна няправільныя або абсурдныя рэчы, моўныя мадэлі з імі не спрачаюцца, спрабуюць гэта залагодзіць.
Зразумела, чаму гэта робіцца: каб людзі працягвалі з імі ўзаемадзейнічаць, такое ўтрыманне аўдыторыі. Але якраз гэта згодніцтва, патуранне з боку моўных мадэляў і прыводзіць да праблемы накшталт той, якую мы зараз абмяркоўваем.
— Да падачы навіны пра Штэйна-Эрыка Сольберга журналістамі ёсць шмат пытанняў. Я бачу тут імкненне перанесці адказнасць за трагедыю на ChatGPT. На самай жа справе праблемы ў гэтага чалавека з’явіліся досыць даўно. Паводзінавыя змены адбываліся прыкметна раней. Ёсць пытанні да таго, чаму гэтыя праблемы не заўважылі яго блізкія, былыя калегі. Бо чалавек як мінімум ускоснымі прыкметамі паказваў, што мае патрэбу ў дапамозе.
Тое, што ён пайшоў да чат-бота за дапамогай, за падтрымкай, за эмпатыяй, кажа пра тое, што ён адчуваў сябе самотным.
Яшчэ я звярнула ўвагу на тое, што Сольберг чамусьці не наладзіў чат GPT такім чынам, каб той размаўляў з ім як псіхолаг. Бо калі мы карыстаемся чат-ботам, мы можам задаваць некаторыя параметры. Напрыклад, папрасіць чат размаўляць такім чынам, быццам ён спецыяліст у псіхалогіі або ў нейкай іншай сферы. Чату можна даць такую каманду, і ён не будзе безагаворачна табе падтакваць.
Але, мяркуючы па ўсім, Сольбергу была патрэбна менавіта такая форма зносін, калі з ім ва ўсім згаджаюцца. Ён меў патрэбу ў такім напарніку, у сябры, які яго прымае безумоўна і якому можна давяраць. На мой погляд, гэта кажа пра тое, што ён быў самотным і няшчасным чалавекам.
Таму я не прапаную адразу фарбаваць ChatGPT у чорны колер. Варта зрабіць высновы і выкарыстоўваць яго больш асэнсавана. Я ўпэўнена, што распрацоўшчыкі LLM будуць яшчэ больш уважлівыя да этычных аспектаў і пытанняў бяспекі пры выкарыстанні іх прадуктаў.
Таму што пятая версія ChatGPT, мяркуючы па водгуках, яшчэ больш pleasant, больш ліслівая і прыемная. Пры тым што якасць, дакладнасць надаванай ёю інфармацыі знізілася. Магу меркаваць, што шостая версія павінна быць больш набліжанай да чалавечай манеры зносін.
Адзначу, што AI ўжо зараз займае важнае месца ў вырашэнні праблем людзей з асаблівасцямі, з абмежаванымі здольнасцямі. Упэўнена, што ідзе распрацоўка прадуктаў для дапамогі людзям і з нейкімі ментальнымі асаблівасцямі, з псіхіятрычнымі дыягназамі, з расстройствамі аўтычнага спектру. Таму дэманізаваць AI я б не стала.
Магчыма, было б нядрэнна, калі б чат-боты, сутыкнуўшыся з прыкметамі пэўных псіхічных праблем у свайго «суразмоўцы», пераключалі б яго на жывога чалавека. Я трошкі пафантазую: калі AI-асістэнты сапраўды могуць пакінуць без працы нейкую частку псіхолагаў, гэтых псіхолагаў можна было б працаўладкаваць, каб яны адказвалі на перанакіраваныя пытанні. Так, напэўна, было б правільна. Вось як мы з банкамі размаўляем: спачатку там звычайны нейкі бот, але калі мы выходзім за рамкі нейкага прапісанага алгарытму, да нас падключаецца жывы спецыяліст.
І яшчэ адзін бок гэтай жа праблемы. Справа ў тым, што людзі без дыягназаў таксама могуць мець сур’ёзныя праблемы — проста яны яшчэ не дайшлі да псіхіятраў. І верагоднасць таго, што нейкая нейрасетачка ў наступны раз «звядзе з розуму» нейкага чалавека не асабліва моцна залежыць ад таго, ёсць у яго афіцыйны дыягназ ці няма.
Дадам, што навіна пра забойства і самагубства, учыненыя Сольбергам, вельмі сумная. Магчыма, даведаўшыся пра яе, хтосьці нават адмовіцца ад выкарыстання чат-ботаў. Але было б лепш, калі б яна падштурхнула людзей да развіцця ўласнага крытычнага мыслення. Сёння я расказала пра гэты кейс сваёй 13-гадовай дачцэ. І яна сказала мне: «Мама, ну ты што. Усе ж ведаюць, што чат GPT падлізваецца і кажа тое, што ты хочаш ад яго пачуць».
Атрымліваецца, што нават дзіця гэта ведае. Адкуль? Памятаю, як у мінулым годзе яна спрабавала ашукаць і пыталася ў чата: «У мяне баліць галава, ці можна не ісці ў школу?» І чацік адказваў ёй: «Вядома, ты можаш прагуляць». Цэлы тыдзень чат GPT дапамагаў сабатаваць вучобу і распавядаў дачцэ, якая яна хворая і няшчасная!
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.