Anthropic перапісала правілы бяспекі ШІ з-за ўльтыматуму Пентагона
Кампанія змякчыла свае абавязацельствы ў сферы бяспекі ШІ на фоне ціску з боку Міністэрства абароны ЗША. Ведамства патрабуе прадставіць вайскоўцам пашыраны доступ да мадэлі Claude.
Кампанія змякчыла свае абавязацельствы ў сферы бяспекі ШІ на фоне ціску з боку Міністэрства абароны ЗША. Ведамства патрабуе прадставіць вайскоўцам пашыраны доступ да мадэлі Claude.
Кампанія змякчыла свае абавязацельствы ў сферы бяспекі ШІ на фоне ціску з боку Міністэрства абароны ЗША. Ведамства патрабуе прадставіць вайскоўцам пашыраны доступ да мадэлі Claude.
Згодна з паведамленнямі Axios, міністр абароны ЗША Піт Хегсет запатрабаваў ад генеральнага дырэктара Anthropic Дарыа Амадэя да канца тыдня пагадзіцца на ўмовы міністэрства, інакш кампанію чакаюць санкцыі. Сярод магчымых мер: разрыў буйнога кантракта, прызнанне Anthropic «рызыкай для ланцуга паставак», а таксама выкарыстанне Defense Production Act, які дазваляе ўраду прымусова прыярытызаваць абаронныя заказы. Крыніцы сцвярджаюць, што вайскоўцы дамагаюцца фактычна неабмежаванага доступу да Claude, уключаючы яго прымяненне ў задачах, звязаных з нацыянальнай бяспекай.
Anthropic пазіцыянуе сябе як найбольш «арыентаваную на бяспеку» кампанію сярод распрацоўшчыкаў ШІ. Да апошняга часу яе палітыка прадугледжвала жорсткія абмежаванні: кампанія абавязалася прыпыняць навучанне новых мадэляў, калі не можа загадзя гарантаваць выкананне пэўных стандартаў бяспекі.
Цяпер замест жорсткіх абмежаванняў уводзяцца больш гнуткія механізмы — так званыя Risk Reports і Frontier Safety Roadmaps. Яны прадугледжваюць рэгулярную справаздачнасць аб рызыках і планах па іх зніжэнні, але не ўтрымліваюць ранейшых «чырвоных ліній», якія аўтаматычна прыпыняюць навучанне мадэляў. У кампаніі тлумачаць змены «праблемай калектыўнага дзеяння»: калі адзін распрацоўшчык запаволіць развіццё дзеля бяспекі, а канкурэнты працягнуць паскарацца, гэта можа прывесці да менш бяспечнага свету.
Галоўны навуковы супрацоўнік Anthropic Джарэд Каплан заявіў, што аднабаковыя абавязацельствы ва ўмовах імклівага развіцця галіны губляюць сэнс, калі канкурэнты «рухаюцца наперад без паўз». Па яго словах, поўны прыпынак навучання мадэляў не прынёс бы карысці ні карыстальнікам, ні самой кампаніі.
Аднак крытыкі бачаць у зменах трывожны сігнал. Кіраўнік некамерцыйнай арганізацыі METR Крыс Пэйнтэр адзначыў, што акцэнт на празрыстасці выглядае пазітыўна, але адмова ад жорсткіх абмежаванняў можа прывесці да «эфекту жабы, што варыцца» — паступоваму размыванню стандартаў пад ціскам знешніх абставін. На яго думку, гэта сведчыць аб тым, што метады ацэнкі і зніжэння рызык не паспяваюць за ростам магчымасцяў ШІ.
Сітуацыю пагаршае той факт, што Claude ўжо выкарыстоўваецца ў найбольш адчувальных ваенных сістэмах ЗША. Да нядаўняга часу гэта была адзіная мадэль, дапушчаная да працы ў засакрэчаных асяроддзях Пентагона. У ліпені мінулага года Мінабароны заключыла кантракты з некалькімі ШІ-кампаніямі на суму да $200 мільёнаў, аднак менавіта Claude выкарыстоўваўся ў крытычна важных аперацыях. Паводле дадзеных СМІ, мадэль выкарыстоўвалася, у тым ліку, пры аперацыі па затрыманні прэзідэнта Венесуэлы Нікаласа Мадура.
Пры гэтым OpenAI і xAI, паводле паведамленняў Washington Post, пагадзіліся на больш шырокія ўмовы выкарыстання сваіх мадэляў «для ўсіх законных мэт». Гэта ўзмацняе ціск на Anthropic, якая раней адмаўлялася дапускаць выкарыстанне Claude для масавага назірання за грамадзянамі ЗША або аўтаномных сістэм узбраенняў без удзелу чалавека.



Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.