Дапамажыце dev.by 🤍
Падтрымаць

Наступныя 2 гады вырашаць усё: кіраўнік Anthropic напісаў эсэ пра будучыню ШІ

Кіраўнік Anthropic Дарыа Амадэй заклікаў сусветную супольнасць «прачнуцца» і сур’ёзна паставіцца да рызык, звязаных з хуткім развіццём штучнага інтэлекту. Паводле яго словаў, чалавецтва ўжо ў найбліжэйшыя гады можа сутыкнуцца з тэхналогіямі «амаль неймавернай магутнасці».

Пакінуць каментарый
Наступныя 2 гады вырашаць усё: кіраўнік Anthropic напісаў эсэ пра будучыню ШІ

Кіраўнік Anthropic Дарыа Амадэй заклікаў сусветную супольнасць «прачнуцца» і сур’ёзна паставіцца да рызык, звязаных з хуткім развіццём штучнага інтэлекту. Паводле яго словаў, чалавецтва ўжо ў найбліжэйшыя гады можа сутыкнуцца з тэхналогіямі «амаль неймавернай магутнасці».

Пра гэта Амадэй напісаў у маштабным эсэ аб’ёмам каля 19 тысяч слоў пад назвай The Adolescence of Technology. У тэксце ён параўноўвае бягучы этап развіцця ШІ з «тэхналагічным сталеннем», якое стане сур’ёзным выпрабаваннем для чалавецтва.

«Я лічу, што мы ўступаем у непазбежны і турбулентны перыяд пераходу, які правярае, кім мы з’яўляемся як від. Чалавецтву вось-вось будзе ўручана амаль неймаверная ўлада, і зусім не ясна, ці валодаюць нашы сацыяльныя, палітычныя і тэхналагічныя сістэмы дастатковай сталасцю, каб ёю распараджацца», — піша Амадэй.

Па ацэнцы кіраўніка Anthropic, з’яўленне «магутнага ШІ» — сістэм, якія перавышаюць лаўрэатаў Нобелеўскай прэміі ў такіх галінах, як біялогія, матэматыка, праграмаванне і інжынерыя, — можа быць справай бліжэйшых аднаго-двух гадоў. Такія мадэлі змогуць не толькі адказваць на пытанні, але і аўтаномна выконваць складаныя задачы, кіраваць робатамі і праектаваць фізічныя сістэмы.

Амадэй лічыць, што рызыкі звязаны не толькі з гіпатэтычным «бунтам машын», але і з практычным прымяненнем ШІ людзьмі і дзяржавамі. Сярод ключавых пагроз ён называе выкарыстанне ШІ для стварэння біялагічнай зброі, масавай сачэння, прапаганды і канцэнтрацыі ўлады ў руках асобных дзяржаў або карпарацый.

Асаблівы непакой ў яго выклікае зніжэнне бар’ераў для небяспечных дзеянняў: па яго словах, прасунутыя мадэлі могуць «разарваць сувязь паміж здольнасцямі і матывацыяй», дазваляючы асобным зламыснікам здзяйсняць разбуральныя дзеянні, якія раней патрабавалі ўзроўню цэлых навуковых інстытутаў.

«Мы ўжо значна бліжэй да рэальнай небяспекі ў 2026 годзе, чым былі ў 2023-м, калі дыскусія аб экзістэнцыйных рызыках ШІ толькі ўвайшла ў палітычны парадак дня», — адзначае ён.

Пры гэтым Амадэй выступае супраць панікі і «думерызму». Ён настойвае на прагматычным падыходзе: развіцці механізмаў выраўноўвання ШІ, інтэрпрэтаванасці мадэляў, празрыстасці працы кампаній і акуратным, «хірургічным» рэгуляванні з боку дзяржаў. У прыватнасці, Anthropic робіць стаўку на так званы Constitutional AI — навучанне мадэляў на аснове набору каштоўнасцей і прынцыпаў, а не жорсткіх спісаў забаронаў.

Нягледзячы на змрочныя сцэнары, Амадэй захоўвае асцярожны аптымізм. Па яго словах, пры рашучых і прадуманых дзеяннях рызыкі можна пераадолець, а ў перспектыве ШІ здольны прывесці да «значна лепшага свету». Аднак для гэтага, падкрэслівае ён, неабходна прызнаць маштаб выкліку. «Гэта сур’ёзны цывілізацыйны тэст. У нас няма часу яго ігнараваць», — рэзюмуе кіраўнік Anthropic.

Mozilla збірае «альянс бунтароў» у галіне ШІ каб супрацьстаяць OpenAI і Anthropic
Mozilla збірае «альянс бунтароў» у галіне ШІ, каб супрацьстаяць OpenAI і Anthropic
Па тэме
Mozilla збірае «альянс бунтароў» у галіне ШІ, каб супрацьстаяць OpenAI і Anthropic
«Мы можем упереться в стену»: в общий ИИ вкладывают триллионы но никто не знает что это
«Мы можем упереться в стену»: в общий ИИ вкладывают триллионы, но никто не знает, что это
Па тэме
«Мы можем упереться в стену»: в общий ИИ вкладывают триллионы, но никто не знает, что это
Чытайце таксама
Інвестары хочуць вынік: Microsoft абрынулася пасля паспяховай справаздачы, Meta — узляцела
Інвестары хочуць вынік: Microsoft абрынулася пасля паспяховай справаздачы, Meta — узляцела
Інвестары хочуць вынік: Microsoft абрынулася пасля паспяховай справаздачы, Meta — узляцела
OpenAI прызнала памылку: ChatGPT Agent аказаўся нікому не патрэбны
OpenAI прызнала памылку: ChatGPT Agent аказаўся нікому не патрэбны
OpenAI прызнала памылку: ChatGPT Agent аказаўся нікому не патрэбны
Пентагон і Anthropic канфліктуюць з-за ваеннага прымянення ШІ
Пентагон і Anthropic канфліктуюць з-за ваеннага прымянення ШІ
Пентагон і Anthropic канфліктуюць з-за ваеннага прымянення ШІ
Google адкрыла доступ да Project Genie — генератара віртуальных светаў
Google адкрыла доступ да Project Genie — генератара віртуальных светаў
Google адкрыла доступ да Project Genie — генератара віртуальных светаў

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.