🇵🇱 Дедлайн по e-PIT всё ближе ⏳ Поддержите devby из уже уплаченных налогов 💙
Support us

OpenAI заключила сделку с Пентагоном сразу после внесения Anthropic в чёрный список

OpenAI опубликовала ключевые положения своего контракта с Министерством обороны США и заявила, что соглашение содержит жесткие «красные линии». Это произошло на фоне открытого конфликта между Пентагоном и Anthropic.

1 комментарий
OpenAI заключила сделку с Пентагоном сразу после внесения Anthropic в чёрный список

OpenAI опубликовала ключевые положения своего контракта с Министерством обороны США и заявила, что соглашение содержит жесткие «красные линии». Это произошло на фоне открытого конфликта между Пентагоном и Anthropic.

В своем блоге OpenAI раскрыла формулировки договора, согласно которым ее модели не могут применяться для массового наблюдения за гражданами США, для управления автономными системами вооружения или для высокорисковых автоматизированных решений вроде систем «социального рейтинга».

Компания подчеркнула, что сохраняет «полный контроль» над своей системой безопасности, разворачивает решения через облачную инфраструктуру, а допущенные сотрудники OpenAI остаются «в контуре» работы. В случае нарушения условий контракт может быть расторгнут. «Мы считаем, что наше соглашение содержит больше защитных механизмов, чем любое предыдущее соглашение о развертывании ИИ в закрытых сетях, включая соглашение Anthropic», — заявили в компании.

Глава OpenAI Сэм Альтман в серии ответов в соцсетях подтвердил, что компания не согласилась бы на использование ее технологий для массовой слежки, поскольку это «нарушает Конституцию». Он добавил, что был бы готов уйти с поста, если подобная практика стала бы законной.

Сделка OpenAI с Пентагоном была заключена вскоре после того, как администрация Дональда Трампа распорядилась прекратить сотрудничество с Anthropic и объявить ее «риском для цепочки поставок». Конфликт разгорелся из-за отказа Anthropic предоставить военным доступ к модели Claude для «любого законного использования».

Глава Anthropic Дарио Амодей заявил, что компания «предпочтет не работать с Пентагоном», чем согласиться на применение технологий способами, которые могут «подрывать, а не защищать демократические ценности». По его словам, речь идет прежде всего о двух сценариях: «массовой внутренней слежке» и «полностью автономном оружии».

«Эти угрозы не изменят нашу позицию: мы не можем по совести согласиться с их требованием», — заявил Амодей после встречи с министром обороны Питом Хегсетом. Он подчеркнул, что такие сценарии «никогда не включались в наши контракты» и не должны быть включены сейчас.

Представитель Anthropic также заявила, что предложенные Пентагоном компромиссные формулировки фактически позволяли бы игнорировать ограничения «по желанию», несмотря на публичные заявления ведомства. В компании отметили, что готовы поддерживать использование ИИ для «законных внешнеразведывательных и контрразведывательных миссий», но считают массовую слежку несовместимой с демократическими принципами.

Со стороны Пентагона звучат противоположные аргументы. Замминистра обороны Эмиль Майкл заявил, что военным «нужно доверять» и что подобные ограничения уже предусмотрены законом. При этом ведомство пригрозило в случае несогласия задействовать Закон о военном производстве (Defense Production Act), который позволяет обязать компанию выполнять оборонные заказы, а также формально признать ее «риском для цепочки поставок».

OpenAI в своем заявлении выступила против присвоения Anthropic такого статуса и сообщила, что просила правительство распространить аналогичные условия контракта на все ИИ-лаборатории. В компании считают, что «будущее потребует глубокого сотрудничества между правительством и ИИ-компаниями», а нынешняя эскалация — «плохой способ начать новый этап».

Пентагон хочет без ограничений применять модель Anthropic в военных целях угрожает. Anthropic отказала
Пентагон хочет без ограничений применять модель Anthropic в военных целях, угрожает. Anthropic отказала
По теме
Пентагон хочет без ограничений применять модель Anthropic в военных целях, угрожает. Anthropic отказала
Anthropic переписала правила безопасности ИИ из-за ультиматума Пентагона
Anthropic переписала правила безопасности ИИ из-за ультиматума Пентагона
По теме
Anthropic переписала правила безопасности ИИ из-за ультиматума Пентагона
«Слишком много власти у случайных людей»: CEO Anthropic об обратной стороне ИИ-бума
«Слишком много власти у случайных людей»: CEO Anthropic об обратной стороне ИИ-бума
По теме
«Слишком много власти у случайных людей»: CEO Anthropic об обратной стороне ИИ-бума
Поддержите редакцию 1,5% налога: бесплатно и за 5 минут

Как помочь, если вы в Польше

Читайте также
ИТ-компании переходят на новую ключевую метрику в эпоху ИИ. Вот какую
ИТ-компании переходят на новую ключевую метрику в эпоху ИИ. Вот какую
ИТ-компании переходят на новую ключевую метрику в эпоху ИИ. Вот какую
6 способов взлома ИИ-агентов: список Google DeepMind
6 способов взлома ИИ-агентов: список Google DeepMind
6 способов взлома ИИ-агентов: список Google DeepMind
Китайская компания ищет ИИ-инженера на $1,5 млн в месяц. Вот что нужно делать
Китайская компания ищет ИИ-инженера на $1,5 млн в месяц. Вот что нужно делать
Китайская компания ищет ИИ-инженера на $1,5 млн в месяц. Вот что нужно делать
ИИ-агенты всё чаще выходят из-под контроля: число сбоев выросло в разы
ИИ-агенты всё чаще выходят из-под контроля: число сбоев выросло в разы
ИИ-агенты всё чаще выходят из-под контроля: число сбоев выросло в разы

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Anonymous
Anonymous
0

OpenAI опубликовала ключевые положения своего контракта с Министерством обороны США и заявила, что соглашение содержит жесткие «красные линии».

Ога-ога. Chatgpt превратился в помойку уже давно.

Пользователь отредактировал комментарий 2 марта 2026, 13:42