Meta паабяцала спыніць распрацоўку АІ, калі рызыкі будуць занадта высокія
Кампанія заявіла, што можа прыпыніць распрацоўку некаторых сістэм штучнага інтэлекту, калі палічыць іх занадта рызыкоўнымі.
Згодна з новым дакументам Frontier AI Framework, кампанія класіфікуе АІ-сістэмы як «высокарызыкоўныя» і «крытычна рызыкоўныя». Абедзве гэтыя катэгорыі сістэм могуць быць выкарыстаныя ў кібератаках, хімічных і біялагічных атаках.
Асноўнае адрозненне паміж імі палягае ў тым, што «крытычна рызыкоўныя» сістэмы могуць прывесці да катастрафічных наступстваў. У сваю чаргу, «высокарызыкоўныя» сістэмы могуць палегчыць правядзенне атакі, але не так надзейна і прадказальна, як «крытычна рызыкоўныя» сістэмы.
Кампанія класіфікуе рызыку сістэмы не на аснове якога-небудзь эмпірычнага тэсту, а на думцы ўнутраных і вонкавых даследчыкаў, якія падлягаюць праверцы з боку кіраўнікоў найвышэйшага звяна.
Meta тлумачыць, што не лічыць існую ацэнку «дастаткова надзейнай, каб падаць канчатковыя колькасныя паказчыкі» для вызначэння ступені рызыкі сістэмы.
- Калі сістэма лічыцца «высокарызыкоўнай», Meta абмяжуе доступ да яе ўнутры кампаніі і не выпусціць яе датуль, пакуль не будуць рэалізаваныя меры па зніжэнні рызыкі да ўмеранага ўзроўню.
- Калі ж сістэма будзе прызнаная «крытычна рызыкоўнай», Meta прыме меры бяспекі для прадухілення яе ўцечкі і спыніць распрацоўку да таго часу, пакуль сістэму не ўдасца зрабіць менш небяспечнай.
Читать на dev.by