Два ключавыя супрацоўнікі пакінулі OpenAI праз спрэчку наконт бяспекі AI
Сыход ключавых спецыялістаў па бяспецы АІ ставіць пад сумнеў імкненне OpenAI адказна падыходзіць да распрацоўкі новых мадэляў АІ.
Раней два ключавыя супрацоўнікі стартапа пакінулі свае пасады. Гэта галоўны навуковы супрацоўнік Ілля Суцкевер і ягоны калега Ян Лейке. Яны, у прыватнасці, адказвалі за распрацоўку АІ. Іх сыход можа быць звязаны з рознагалоссямі з кіраўніцтвам кампаніі наконт гарантавання бяспекі распрацовак.
Лейке заяўляў, што не згодны з кіраўніцтвам кампаніі ў гэтых пытаннях і што сітуацыя дасягнула крытычнага пункта. Суцкевер быў адным з ініцыятараў звальнення Сэма Альтана з пасады генеральнага дырэктара OpenAI. Аднак пасля вяртання Альтмана ў кампанію Суцкевер выказаў шкадаванне наконт сваіх дзеянняў.
У адказ на сыход Суцкевера і Лейке Альтман разам з прэзідэнтам Грэгам Брокманам апублікаваў заяву, у якой патлумачыў пазіцыю кампаніі. У паведамленні сказана, што OpenAI ужо заклікала да міжнароднага рэгулявання АІ. Альтман таксама прапаноўваў стварыць міжнароднае агенцтва для забеспячэння тэсціравання сістэм АІ.
Аднак гэтыя дзеянні не пераканалі супрацоўнікаў, якія сышлі. Паводле слоў Лэйк, праблемы з бяспекай распрацоўкі АІ вельмі складана вырашаць, і ён не ўпэўнены, што кампанія рухаецца ў правільным кірунку. Заявы прагучалі пасля таго, як Wired паведаміў, што OpenAI цалкам распусціла каманду, якая займалася рызыкамі АІ.
Читать на dev.by