Meta паабяцала спыніць распрацоўку АІ, калі рызыкі будуць занадта высокія

Кампанія заявіла, што можа прыпыніць распрацоўку некаторых сістэм штучнага інтэлекту, калі палічыць іх занадта рызыкоўнымі.

2 каментарыя

Згодна з новым дакументам Frontier AI Framework, кампанія класіфікуе АІ-сістэмы як «высокарызыкоўныя» і «крытычна рызыкоўныя». Абедзве гэтыя катэгорыі сістэм могуць быць выкарыстаныя ў кібератаках, хімічных і біялагічных атаках.

Асноўнае адрозненне паміж імі палягае ў тым, што «крытычна рызыкоўныя» сістэмы могуць прывесці да катастрафічных наступстваў. У сваю чаргу, «высокарызыкоўныя» сістэмы могуць палегчыць правядзенне атакі, але не так надзейна і прадказальна, як «крытычна рызыкоўныя» сістэмы.

Кампанія класіфікуе рызыку сістэмы не на аснове якога-небудзь эмпірычнага тэсту, а на думцы ўнутраных і вонкавых даследчыкаў, якія падлягаюць праверцы з боку кіраўнікоў найвышэйшага звяна.

Meta тлумачыць, што не лічыць існую ацэнку «дастаткова надзейнай, каб падаць канчатковыя колькасныя паказчыкі» для вызначэння ступені рызыкі сістэмы.

  • Калі сістэма лічыцца «высокарызыкоўнай», Meta абмяжуе доступ да яе ўнутры кампаніі і не выпусціць яе датуль, пакуль не будуць рэалізаваныя меры па зніжэнні рызыкі да ўмеранага ўзроўню.
  • Калі ж сістэма будзе прызнаная «крытычна рызыкоўнай», Meta прыме меры бяспекі для прадухілення яе ўцечкі і спыніць распрацоўку да таго часу, пакуль сістэму не ўдасца зрабіць менш небяспечнай.
ЕС увёў поўную забарону АІ з «непрымальнай рызыкай»
Па тэме
ЕС увёў поўную забарону АІ з «непрымальнай рызыкай»
OpenAI прапануе свае тэхналогіі для даследаванняў ядзернай зброі
Па тэме
OpenAI прапануе свае тэхналогіі для даследаванняў ядзернай зброі
Кітайскі стартап DeepSeek хакнуў АІ-рынак у ЗША: танны канкурэнт «парваў» ChatGPT за адзін дзень
Па тэме
Кітайскі стартап DeepSeek хакнуў АІ-рынак у ЗША: танны канкурэнт «парваў» ChatGPT за адзін дзень

Читать на dev.by