OpenAI заключила сделку с Пентагоном сразу после внесения Anthropic в чёрный список
OpenAI опубликовала ключевые положения своего контракта с Министерством обороны США и заявила, что соглашение содержит жесткие «красные линии». Это произошло на фоне открытого конфликта между Пентагоном и Anthropic.
OpenAI опубликовала ключевые положения своего контракта с Министерством обороны США и заявила, что соглашение содержит жесткие «красные линии». Это произошло на фоне открытого конфликта между Пентагоном и Anthropic.
В своем блоге OpenAI раскрыла формулировки договора, согласно которым ее модели не могут применяться для массового наблюдения за гражданами США, для управления автономными системами вооружения или для высокорисковых автоматизированных решений вроде систем «социального рейтинга».
Компания подчеркнула, что сохраняет «полный контроль» над своей системой безопасности, разворачивает решения через облачную инфраструктуру, а допущенные сотрудники OpenAI остаются «в контуре» работы. В случае нарушения условий контракт может быть расторгнут. «Мы считаем, что наше соглашение содержит больше защитных механизмов, чем любое предыдущее соглашение о развертывании ИИ в закрытых сетях, включая соглашение Anthropic», — заявили в компании.
Глава OpenAI Сэм Альтман в серии ответов в соцсетях подтвердил, что компания не согласилась бы на использование ее технологий для массовой слежки, поскольку это «нарушает Конституцию». Он добавил, что был бы готов уйти с поста, если подобная практика стала бы законной.
Сделка OpenAI с Пентагоном была заключена вскоре после того, как администрация Дональда Трампа распорядилась прекратить сотрудничество с Anthropic и объявить ее «риском для цепочки поставок». Конфликт разгорелся из-за отказа Anthropic предоставить военным доступ к модели Claude для «любого законного использования».
Глава Anthropic Дарио Амодей заявил, что компания «предпочтет не работать с Пентагоном», чем согласиться на применение технологий способами, которые могут «подрывать, а не защищать демократические ценности». По его словам, речь идет прежде всего о двух сценариях: «массовой внутренней слежке» и «полностью автономном оружии».
«Эти угрозы не изменят нашу позицию: мы не можем по совести согласиться с их требованием», — заявил Амодей после встречи с министром обороны Питом Хегсетом. Он подчеркнул, что такие сценарии «никогда не включались в наши контракты» и не должны быть включены сейчас.
Представитель Anthropic также заявила, что предложенные Пентагоном компромиссные формулировки фактически позволяли бы игнорировать ограничения «по желанию», несмотря на публичные заявления ведомства. В компании отметили, что готовы поддерживать использование ИИ для «законных внешнеразведывательных и контрразведывательных миссий», но считают массовую слежку несовместимой с демократическими принципами.
Со стороны Пентагона звучат противоположные аргументы. Замминистра обороны Эмиль Майкл заявил, что военным «нужно доверять» и что подобные ограничения уже предусмотрены законом. При этом ведомство пригрозило в случае несогласия задействовать Закон о военном производстве (Defense Production Act), который позволяет обязать компанию выполнять оборонные заказы, а также формально признать ее «риском для цепочки поставок».
OpenAI в своем заявлении выступила против присвоения Anthropic такого статуса и сообщила, что просила правительство распространить аналогичные условия контракта на все ИИ-лаборатории. В компании считают, что «будущее потребует глубокого сотрудничества между правительством и ИИ-компаниями», а нынешняя эскалация — «плохой способ начать новый этап».
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
OpenAI опубликовала ключевые положения своего контракта с Министерством обороны США и заявила, что соглашение содержит жесткие «красные линии».
Ога-ога. Chatgpt превратился в помойку уже давно.
Пользователь отредактировал комментарий 2 марта 2026, 13:42