Эксперт па АІ заклікаў бамбіць дата-цэнтры, дзе навучаюць АІ
Даследчык ужо больш за 20 гадоў працуе над «агульным штучным інтэлектам» і спрабуе перасцерагчы свет ад «АІ-апакаліпсісу». Свой артыкул ён напісаў у адказ на адкрыты ліст, да якога далучыліся больш за тысячу людзей, у тым ліку Ілан Маск і Стыў Возняк. Аўтары запатрабавалі на 6 месяцаў прыпыніць распрацоўку АІ-сістэм, магутнейшых за GPT-4 ад OpenAI.
Юдкоўскі лічыць, што гэтага недастаткова і трэба цалкам спыніць распрацоўку такіх тэхналогій. Падпісвацца пад лістом ён адмовіўся таму, што аўтары недаацэньваюць «сур’ёзнасць сітуацыі» і патрабуюць «занадта мала для яе развязання».
«Многія даследчыкі, занураныя ў гэтыя праблемы, уключаючы мяне, лічаць найбольш верагодным вынікам стварэння АІ са звышчалавечым розумам ва ўмовах, хоць што аддалена нагадваюць сённяшнія, тое, што літаральна ўсе на Зямлі загінуць», — вангуе Юдкоўскі. Ён дадаў, што АІ «абыякавыя да нас і разумнага жыцця ў цэлым», і людзі яшчэ вельмі далёкія ад таго, каб надзяліць тэхналогію зваротнай якасцю.
Даследчык прапанаваў накласці «бестэрміновую і агульнасусветную» забарону на распрацоўку АІ — без выключэння для ўладаў і вайскоўцаў.
«Калі выведка данясе, што нейкая краіна, якая не ўдзельнічае ў дамове, будуе кластар GPU, то варта менш баяцца ўзброенага канфлікту паміж дзяржавамі, ніж парушэння мараторыя. Варта быць гатовымі знішчыць непажаданы дата-цэнтр шляхам паветранай атакі», — кажа Юдкоўскі.
Зрэшты, сам кіраўнік OpenAI Сэм Альтман лічыць, што Юдкоўскі «зрабіў больш для паскарэння АШІ, чым хто б там ні было», і заслугоўвае «Нобелеўскай прэміі міру». Альтман таксама прызнае рызыкі і страхі вакол тэхналогіі, але адзначае, што OpenAI імкнецца «мінімізаваць зло і максімізаваць карысць» ад яе.
Читать на dev.by