Anthropic раззлавала Трампа: кампанія забараняе выкарыстоўваць Claude для сачэння
Кампанія-распрацоўшчык мадэлі Claude канфліктуе з адміністрацыяй Дональда Трампа з-за адмовы дазволіць выкарыстанне сваіх ШІ-інструментаў для задач амерыканскіх праваахоўных органаў.
Паводле дадзеных Semafor, кампанія адхіліла запыты падрадчыкаў, якія працуюць з федэральнымі агенцтвамі, паколькі яе палітыка забараняе ўжываць ШІ для ўнутранага назірання за грамадзянамі ЗША.
У Белым доме гэтае рашэнне выклікала раздражненне: чыноўнікі лічаць, што Anthropic «выносіць маральныя меркаванні» пра працу праваахоўцаў і наўмысна фармулюе свае правілы размыта. Пад абмежаванні трапляюць такія ведамствы, як ФБР, Сакрэтная служба і Служба іміграцыі і мытнага кантролю, што ўскладняе іх працу з ШІ.
Для некаторых падрадчыкаў сітуацыя асабліва праблемная, бо Claude — адна з нешматлікіх мадэляў, ухваленых для працы ў асяроддзі AWS GovCloud на ўзроўні «цалкам сакрэтна».
Хоць і іншыя кампаніі абмяжоўваюць выкарыстанне сваіх мадэляў для сачэння, яны часцей даюць канкрэтныя прыклады і дапускаюць выключэнні для законнай дзейнасці ўладаў. Напрыклад, палітыка OpenAI наўпрост забараняе «несанкцыянаванае назіранне», маючы на ўвазе, што маніторынг па рашэнні суда ці ў рамках закона можа быць дазволены.
Anthropic ужо мае пагадненні з урадам ЗША — напрыклад, прадастаўляе нацыянальным ведамствам доступ да сваіх паслуг за сімвалічны $1 і супрацоўнічае з Пентагонам, пры гэтым захоўваючы забарону на выкарыстанне ШІ для распрацоўкі зброі.
У мінулым кампанія таксама спрачалася з адміністрацыяй Трампа, выступаючы супраць закона, які абмяжоўваў бы магчымасць асобных штатаў самастойна рэгуляваць сферу ШІ.
Эксперты адзначаюць, што сітуацыя ўздымае важнае пытанне: наколькі пастаўшчыкі ШІ могуць і павінны кантраляваць, як менавіта іх тэхналогіі прымяняюцца дзяржаўнымі структурамі. Традыцыйнае ПЗ, накшталт Microsoft Office, пасля продажу выкарыстоўваецца без абмежаванняў, тады як ШІ-мадэлі суправаджаюцца цэлым наборам умоў.
Читать на dev.by