OpenAI заключыла здзелку з Пентагонам адразу пасля ўнясення Anthropic у чорны спіс
OpenAI апублікавала ключавыя палажэнні свайго кантракта з Міністэрствам абароны ЗША і заявіла, што пагадненне змяшчае жорсткія «чырвоныя лініі». Гэта адбылося на фоне адкрытага канфлікту паміж Пентагонам і Anthropic.
OpenAI апублікавала ключавыя палажэнні свайго кантракта з Міністэрствам абароны ЗША і заявіла, што пагадненне змяшчае жорсткія «чырвоныя лініі». Гэта адбылося на фоне адкрытага канфлікту паміж Пентагонам і Anthropic.
У сваім блогу OpenAI раскрыла фармулёўкі дагавора, згодна з якімі яе мадэлі не могуць ужывацца для масавага назірання за грамадзянамі ЗША, для кіравання аўтаномнымі сістэмамі ўзбраення альбо для высокарызыкоўных аўтаматызаваных рашэнняў кшталту сістэм «сацыяльнага рэйтынгу».
Кампанія падкрэсліла, што захоўвае «поўны кантроль» над сваёй сістэмай бяспекі, разгортвае рашэнні праз воблачную інфраструктуру, а дапушчаныя супрацоўнікі OpenAI застаюцца «ў контуры» працы. У выпадку парушэння ўмоў кантракт можа быць скасаваны. «Мы лічым, што наша пагадненне змяшчае больш абарончых механізмаў, чым любое папярэдняе пагадненне аб разгортванні ШІ ў закрытых сетках, уключаючы пагадненне Anthropic», — заявілі ў кампаніі.
Кіраўнік OpenAI Сэм Альтман у серыі адказаў у сацсетках пацвердзіў, што кампанія не пагадзілася б на выкарыстанне яе тэхналогій для масавай сачэння, паколькі гэта «парушае Канстытуцыю». Ён дадаў, што быў бы гатовы сысці з пасады, калі падобная практыка стала б законнай.
Угода OpenAI з Пентагонам была заключана неўзабаве пасля таго, як адміністрацыя Дональда Трампа загадала спыніць супрацоўніцтва з Anthropic і абвясціць яе «рызыкай для ланцуга паставак». Канфлікт разгарэўся з-за адмовы Anthropic надаць ваенным доступ да мадэлі Claude для «любога законнага выкарыстання».
Кіраўнік Anthropic Дарыа Амадэй заявіў, што кампанія «аддасць перавагу не працаваць з Пентагонам», чым пагадзіцца на ўжыванне тэхналогій спосабамі, якія могуць «падрываць, а не абараняць дэмакратычныя каштоўнасці». Па яго словах, гаворка ідзе перш за ўсё пра два сцэнарыі: «масавай унутранай сачэння» і «цалкам аўтаномнай зброі».
«Гэтыя пагрозы не зменяць нашу пазіцыю: мы не можам па сумленні пагадзіцца з іх патрабаваннем», — заявіў Амадэй пасля сустрэчы з міністрам абароны Пітам Хегсетам. Ён падкрэсліў, што такія сцэнарыі «ніколі не ўключаліся ў нашы кантракты» і не павінны быць уключаны зараз.
Прадстаўнік Anthropic таксама заявіла, што прапанаваныя Пентагонам кампрамісныя фармулёўкі фактычна дазвалялі б ігнараваць абмежаванні «па жаданні», нягледзячы на публічныя заявы ведамства. У кампаніі адзначылі, што гатовы падтрымліваць выкарыстанне ШІ для «законных знешнеразведвальных і контрразведвальных місій», але лічаць масавае сачэнне несумяшчальным з дэмакратычнымі прынцыпамі.
З боку Пентагона гучаць супрацьлеглыя аргументы. Намеснік міністра абароны Эміль Майкл заявіў, што ваенным «трэба давяраць» і што падобныя абмежаванні ўжо прадугледжаны законам. Пры гэтым ведамства пагражала ў выпадку нязгоды задзейнічаць Закон аб ваеннай вытворчасці (Defense Production Act), які дазваляе абавязаць кампанію выконваць абаронныя заказы, а таксама фармальна прызнаць яе «рызыкай для ланцуга паставак».
OpenAI у сваёй заяве выступіла супраць прысваення Anthropic такога статусу і паведаміла, што прасіла ўрад распаўсюдзіць аналагічныя ўмовы кантракта на ўсе ШІ-лабараторыі. У кампаніі лічаць, што «будучыня запатрабуе глыбокага супрацоўніцтва паміж урадам і ШІ-кампаніямі», а цяперашняя эскалацыя — «дрэнны спосаб пачаць новы этап».
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
OpenAI опубликовала ключевые положения своего контракта с Министерством обороны США и заявила, что соглашение содержит жесткие «красные линии».
Ога-ога. Chatgpt превратился в помойку уже давно.
Карыстальнік адрэдагаваў каментарый 2 сакавіка 2026, 13:42