Узлом OpenAI: што вядома пра атаку
Кампанія ведала пра ўзлом унутранай перапіскі супрацоўнікаў, але не стала казаць пра гэта публічна і паведамляць пра атаку ФБР. The New York Times дазналася падрабязнасцяў інцыдэнту.
На пачатку 2023 года ананімны хакер здолеў пранікнуць ва ўнутраныя сістэмы абмену паведамленнямі OpenAI. Паводле слоў крыніцы ў кампаніі, зламыснік паспеў выкрасці звесткі пра тэхналагічныя напрацоўкі стартапа. Таксама яму ўдалося дазнацца падрабязнасцяў пра найноўшыя дасягненні ў сферы АІ з дыскусій супрацоўнікаў на форуме. Аднак сістэмы, дзе ствараюцца прадукты і ўтрымліваецца інфармацыя пра іх, нібыта не пацярпелі.
OpenAI не стала даводзіць да агульнага ведама гэты інцыдэнт, паколькі палічыла, што ніякая інфармацыя аб кліентах і партнёрах не была скрадзеная. Аб узломе паведамілі на агульным сходзе супрацоўнікаў у красавіку 2023 года, а таксама апавясцілі пра гэта раду дырэктараў. Кіраўнікі не палічылі інцыдэнт пагрозай нацыянальнай бяспецы і не сталі інфармаваць ФБР і праваахоўныя органы.
Тым не менш менеджар OpenAI Леапольд Ашэнбрэнер пасля сходу накіраваў радзе дырэктараў запіску, у якой паведаміў, што кампанія прыкладае недастаткова намаганняў для абароны сваіх сакрэтаў ад умяшання замежных дзяржаў. Пра ананімнага хакера практычна нічога невядома, крыніцы сцвярджаюць, што ён не звязаны з урадамі і выведкамі іншых краін.
Ашэнбрэнера звольнілі праз уцечку іншай інфармацыі, але ён лічыць сваё звальненне палітычна матываваным. Былы менеджар вырашыў расказаць публічна пра ўзлом, які здарыўся. У кампаніі адрэагавалі на яго інтэрв’ю жорстка. «Мы цэнім занепакоенасць, якую Леапольд выказваў у часе працы ў OpenAI, але гэта не з’яўляецца прычынай яго звальнення», — заявіла прэс-сакратарка OpenAI Ліз Буржуа.
«Хоць мы падзяляем яго прыхільнасць стварэнню бяспечнага штучнага інтэлекту, мы не згодныя са многімі заявамі, якія ён з тых часоў зрабіў пра нашую працу. Гэта тычыцца яго характарыстыкі нашай сістэмы бяспекі, у прыватнасці, гэты інцыдэнт, які мы разгледзелі і якім падзяліліся з нашым праўленнем да таго, як ён далучыўся да кампаніі», — дадала яна.
Аднак падазрэнні ва ўдзеле кітайскіх спецслужбаў ва ўзломе могуць быць небеспадстаўнымі. У чэрвені гэтага года прэзідэнт Microsoft Брэд Сміт даў паказанні ў Кангрэсе ЗША, дзе заявіў, што кітайскія хакеры выкарыстоўвалі сістэмы кампаніі для шырокамаштабнай атакі на сеткі федэральнага ўрада. Але заканадаўства Каліфорніі і ЗША не можа перашкаджаць замежным спецыялістам працаваць у кампаніі, таксама гэтая забарона істотна абцяжарыць распрацоўку АІ у ЗША.
Кітайскія кампаніі ствараюць уласныя сістэмы, якія амаль не саступаюць магутнасцю вядучым сістэмам ЗША. Паводле некаторых паказчыкаў Кітай абагнаў Злучаныя Штаты як найбуйнейшы вытворца спецыялістаў у галіне штучнага інтэлекту, паколькі ў гэтай краіне працуе амаль палова вядучых даследчыкаў у свеце.
У сферы АІ-распрацовак дагэтуль ідзе дыскусія, наколькі тэхналогіі могуць быць пагрозай нацыянальнай бяспецы. Напрыклад, сузаснавальніца і прэзідэнтка Anthropic Даніэла Амадэй лічыць, што калі б звесткі пра АІ-тэхналогіі выкралі і перадалі іншым, то гэта не з’яўляла б ніякай сур’ёзнай рызыкі. «Калі б нашыя веды перадалі камусьці іншаму, ці магло б гэта нанесці велізарную шкоду грамадству? Наш адказ: не, верагодна, не», — сказаў прадстаўнік Anthropic.
Іншыя кампаніі, такія як Meta, свабодна дзеляцца сваімі распрацоўкамі з іншымі ў выглядзе софту з адкрытым зыходным кодам. У кампаніі лічаць, што небяспекі, звязаныя з сучаснымі тэхналогіямі АІ, невялікія і што сумеснае выкарыстанне адкрытага кода дазваляе інжынерам і даследчыкам хутка выяўляць і ліквідаваць праблемы. У першую чаргу абмежаванні ў мадэлях АІ накладваюць у спадзеве перашкодзіць карыстальнікам распаўсюджваць дэзынфармацыю і парушаць закон.
Развагі пра тое, што АІ можа аднойчы паспрыяць стварэнню новай біялагічнай зброі або дапамагчы ўзламаць урадавыя сістэмы, застаюцца абстрактнымі. Каб знізіць рызыкі, OpenAI стварыла камітэт па бяспецы для вывучэння магчымасцяў тэхналогіі. Яго ўзначаліў генеральны дырэктар кампаніі Сэм Альтман. У склад камітэта ўвайшоў Пол Накасонэ, былы армейскі генерал, які ўзначальваў Агенцтва нацыянальнай бяспекі ЗША. Таксама ён увайшоў у раду дырэктараў OpenAI.
Амерыканскія чыноўнікі настойваюць на прыняцці законаў, якія забаранялі б кампаніям выпускаць пэўныя тэхналогіі АІ і штрафавалі б іх на мільёны долараў у выпадку прычынення шкоды. Аднак эксперты мяркуюць, што да такіх выпадкаў яшчэ гады і нават дзесяцігоддзі. Гэта не азначае, што пра патэнцыйныя небяспекі АІ не трэба думаць ужо цяпер.
«Нават калі верагоднасць найгоршых сцэнароў адносна невялікая, калі яны маюць сур’ёзныя наступствы, мы абавязаныя паставіцца да іх сур’ёзна. Я не думаю, што гэта навуковая фантастыка, як многія любяць сцвярджаць», — заявіла Сьюзан Райс, былая дарадца Джо Байдэна па ўнутранай палітыцы і былая дарадца Барака Абамы па нацыянальнай бяспецы.
Читать на dev.by