Meta паабяцала спыніць распрацоўку АІ, калі рызыкі будуць занадта высокія
Кампанія заявіла, што можа прыпыніць распрацоўку некаторых сістэм штучнага інтэлекту, калі палічыць іх занадта рызыкоўнымі.
Кампанія заявіла, што можа прыпыніць распрацоўку некаторых сістэм штучнага інтэлекту, калі палічыць іх занадта рызыкоўнымі.
Кампанія заявіла, што можа прыпыніць распрацоўку некаторых сістэм штучнага інтэлекту, калі палічыць іх занадта рызыкоўнымі.
Згодна з новым дакументам Frontier AI Framework, кампанія класіфікуе АІ-сістэмы як «высокарызыкоўныя» і «крытычна рызыкоўныя». Абедзве гэтыя катэгорыі сістэм могуць быць выкарыстаныя ў кібератаках, хімічных і біялагічных атаках.
Асноўнае адрозненне паміж імі палягае ў тым, што «крытычна рызыкоўныя» сістэмы могуць прывесці да катастрафічных наступстваў. У сваю чаргу, «высокарызыкоўныя» сістэмы могуць палегчыць правядзенне атакі, але не так надзейна і прадказальна, як «крытычна рызыкоўныя» сістэмы.
Кампанія класіфікуе рызыку сістэмы не на аснове якога-небудзь эмпірычнага тэсту, а на думцы ўнутраных і вонкавых даследчыкаў, якія падлягаюць праверцы з боку кіраўнікоў найвышэйшага звяна.
Meta тлумачыць, што не лічыць існую ацэнку «дастаткова надзейнай, каб падаць канчатковыя колькасныя паказчыкі» для вызначэння ступені рызыкі сістэмы.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
Бояться рисков - это не маскулинно. Мета не такая. Мета идёт до конца.
Завтра заявят что-нибудь другое