«Рады, што не дажыву да гэтага»: «хросны бацька ШІ» ацаніў верагоднасць паўстання машын
Джэфры Хінтан, якога называюць адным з «хросных бацькоў ШІ», заявіў, што ШІ развіваецца хутчэй, чым чакалася, і існуе рэальная небяспека таго, што ён можа пераўзысці чалавечы інтэлект і ўзяць пад кантроль чалавецтва.
Хінтан з’яўляецца адным са стваральнікаў ключавых тэхналогій нейронных сетак, якія сёння выкарыстоўваюцца ва ўсіх чат-ботах. У 2024 годзе ён разам з калегам Джонам Хопфілдам атрымаў Нобелеўскую прэмію па фізіцы за адкрыцці і вынаходніцтвы, якія забяспечылі магчымасць машыннага навучання нейрасетак.
Навуковец даўно папярэджвае, што ШІ можа ўяўляць экзістэнцыяльную пагрозу для людзей. У 2023 годзе ён пакінуў кампанію Google, дзе прапрацаваў больш за дзесяць гадоў, каб адкрыта гаварыць пра небяспекі ШІ, не будучы звязаным з буйной тэхналагічнай кампаніяй.
У інтэрв’ю CBS Saturday Morning даследчык заявіў, што развіццё ШІ паскорылася, і асабліва страшным ён назваў з’яўленне агентаў ШІ, якія здольныя не проста адказваць на пытанні, але і выконваць задачы аўтаномна. Ён прадказвае, што штучны агульны інтэлект (AGI) можа з’явіцца ўжо праз 10 гадоў ці нават раней. Год таму яго ацэнка складала ад пяці да дваццаці гадоў.
Ацэньваючы верагоднасць таго, што ШІ можа ўзяць пад кантроль чалавецтва, Хінтан назваў дыяпазон «прыкладна ад 10% да 20%». Ён падкрэсліў, што гэта ўсяго толькі «дзікае меркаванне», і дакладнае прадказанне немагчыма. Ён параўноўвае сітуацыю з вырошчваннем тыграняці: пакуль не будзеш абсалютна ўпэўнены, што яно не захоча цябе забіць, калі вырасце, варта хвалявацца. Бо істоты, разумнейшыя за цябе, змогуць табою маніпуляваць.
Адной з галоўных прычын паскарэння небяспечнага развіцця Хінтан называе арыентаваную на прыбытак гонку ўзбраенняў у галіне ШІ. Ён лічыць, што глабальная канкурэнцыя паміж тэхналагічнымі кампаніямі і краінамі робіць «вельмі, вельмі малаверагодным» адмову ад стварэння звышінтэлекту.
Буйныя кампаніі лабіруюць паслабленне рэгулявання ў галіне ШІ, хоць яго і так амаль няма. Ён выказаў расчараванне кампаніямі, якімі калісьці захапляўся, у прыватнасці Google, за адмову ад ранейшай пазіцыі супраць ваеннага ўжывання ШІ. Навуковец лічыць, што грамадскасць павінна аказаць ціск на ўрады, каб тыя прынялі сур’ёзныя меры па рэгуляванні.
Раней Ёшуа Бенджыа, лаўрэат прэміі Цьюрынга 2018 года разам з Хінтанам, таксама папярэдзіў, што ШІ можа пераўзысці чалавека па інтэлекце і патэнцыйна здзейсніць пераварот. Бенджыа нават выказаў пачуццё віны за дапамогу ў вынаходстве глыбокага навучання, паколькі яно цяпер можа быць выкарыстана ў небяспечных мэтах.
Нягледзячы на сур’ёзныя асцярогі, даследчык бачыць і станоўчыя перспектывы ШІ, напрыклад, у ахове здароўя, распрацоўцы лекаў і адукацыі, дзе ШІ можа палепшыць жыццё людзей. ШІ ўжо дэманструе вынікі на ўзроўні чалавечых дыягнастычных навыкаў. З’яўленне персаналізаваных ШІ-рэпетытараў можа дапамагчы ў адукацыі і паменшыць нагрузку на настаўнікаў. Хоць гэта можа быць «дрэннай навіной для універсітэтаў, але добрай навіной для людзей».
На фоне гэтых трывожных прагнозаў Хінтан, якому 77 гадоў, сказаў, што ён «у пэўным сэнсе рады», што, магчыма, не дажыве да таго моманту, калі праявяцца самыя небяспечныя наступствы развіцця ШІ. Ён выказаў надзею, што чалавецтву ўдасца стварыць ШІ такім чынам, каб ён ніколі не захацеў узяць кантроль.
Читать на dev.by