🇵🇱 Дедлайн по e-PIT всё ближе ⏳ Поддержите devby из уже уплаченных налогов 💙
Support us

Claude выбил ChatGPT с 1 места в App Store на фоне спора Anthropic с Пентагоном — два месяца назад был 42

Пока OpenAI укрепляет позиции в Вашингтоне, Anthropic — среди пользователей, пишет Business Insider: в субботу приложение Claude вышло на 1 место в американском App Store.

2 комментария
Claude выбил ChatGPT с 1 места в App Store на фоне спора Anthropic с Пентагоном — два месяца назад был 42

Пока OpenAI укрепляет позиции в Вашингтоне, Anthropic — среди пользователей, пишет Business Insider: в субботу приложение Claude вышло на 1 место в американском App Store.

После публичного конфликта с Минобороны США из-за условий использования своих моделей Anthropic была внесена в «чёрный список», и федеральные агентства должны будут постепенно отказаться от её технологий. Сразу после этого, в прошлую пятницу, глава OpenAI Сэм Альтман объявил о сделке с Пентагоном о внедрении ИИ-моделей в засекреченную сеть ведомства.

Это решение вызвало неоднозначную реакцию у части пользователей ChatGPT. В сети начались обсуждения этических аспектов такого сотрудничества, а некоторые прямо заявили, что переходят к Claude.

Уже в субботу Claude занял 1 место среди самых скачиваемых приложений в категории продуктивности в App Store, а начинал год с 42 строчки.

Пользователи начали массово делиться скриншотами миграции в соцсетях. Певица Кэтти Перри выложила скрин страницы с тарифами Claude, обведя сердечком Pro-план за $215 в год. Другие выкладывали скриншоты с письмами об оплате Anthropic и подтверждением отписки от OpenAI.

Сотрудники Google и OpenAI опубликовали открытое письмо в знак солидарности с Anthropic. Его уже подписало около 800 человек.

На сабреддите ChatGPT десятки пользователей заявили, что удалили свои аккаунты, и призывают других тоже «отменять» ChatGPT. Некоторые пользователи отмечали, что решение Альтмана «за гранью».

Такую реакцию разделяют не все пользователи. Некоторые на Reddit писали, что новость не влияет на их выбор ИИ-модели, указывая, что сотрудничество Anthropic с Palantir вызывает аналогичные вопросы. Ещё в ноябре 2024 года Anthropic, Palantir и AWS договорились предоставить американским разведывательным и оборонным структурам доступ к моделям Claude.

После того как министр обороны Пит Хегсет пригрозил признать Anthropic «угрозой нацбезопасности», компания ответила, что оспорит любое такое решение в суде.

Альтман в своём посте подчеркнул, что Минобороны согласилось с двумя ключевыми принципами безопасности OpenAI: запрет на массовую слежку внутри страны и ответственность человека за применение силы, включая автономные системы вооружения. В субботу OpenAI опубликовала более подробное описание контракта, включая точные формулировки.

По поводу автономного оружия компания заявила: «Система ИИ не будет использоваться для самостоятельного управления автономными вооружениями в случаях, когда закон, регулирование или политика ведомства требуют участия человека, а также не будет принимать другие критически важные решения, требующие одобрения человека в рамках тех же полномочий».

По поводу массовой слежки: «Система ИИ не должна использоваться для неограниченного мониторинга частной информации граждан США в соответствии с действующими полномочиями».

Реакция пользователей неоднозначна. Кто-то считает, что «в бизнесе, войне и госзакупках все средства хороши». Другие отмечают, что позиция Пентагона могла неожиданно сыграть на руку Anthropic с точки зрения пиара.

OpenAI заключила сделку с Пентагоном сразу после внесения Anthropic в чёрный список
OpenAI заключила сделку с Пентагоном сразу после внесения Anthropic в чёрный список
По теме
OpenAI заключила сделку с Пентагоном сразу после внесения Anthropic в чёрный список
Пентагон хочет без ограничений применять модель Anthropic в военных целях угрожает. Anthropic отказала
Пентагон хочет без ограничений применять модель Anthropic в военных целях, угрожает. Anthropic отказала
По теме
Пентагон хочет без ограничений применять модель Anthropic в военных целях, угрожает. Anthropic отказала
Враг есть враг: в сети завирусился неловкий момент между гендиректорами OpenAI и Anthropic с ИИ-конференции
Враг есть враг: в сети завирусился неловкий момент между гендиректорами OpenAI и Anthropic с ИИ-конференции
По теме
Враг есть враг: в сети завирусился неловкий момент между гендиректорами OpenAI и Anthropic с ИИ-конференции
Поддержите редакцию 1,5% налога: бесплатно и за 5 минут

Как помочь, если вы в Польше

Читайте также
Китайская компания ищет ИИ-инженера на $1,5 млн в месяц. Вот что нужно делать
Китайская компания ищет ИИ-инженера на $1,5 млн в месяц. Вот что нужно делать
Китайская компания ищет ИИ-инженера на $1,5 млн в месяц. Вот что нужно делать
ИИ-агенты всё чаще выходят из-под контроля: число сбоев выросло в разы
ИИ-агенты всё чаще выходят из-под контроля: число сбоев выросло в разы
ИИ-агенты всё чаще выходят из-под контроля: число сбоев выросло в разы
Почти половину дата-центров в США не могут достроить в срок
Почти половину дата-центров в США не могут достроить в срок
Почти половину дата-центров в США не могут достроить в срок
«Это безумие»: ИИ помог построить бизнес на $1,8 млрд с двумя сотрудниками
«Это безумие»: ИИ помог построить бизнес на $1,8 млрд с двумя сотрудниками
«Это безумие»: ИИ помог построить бизнес на $1,8 млрд с двумя сотрудниками

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Anonymous
Anonymous
0

После публичного конфликта с Минобороны США из-за условий использования своих моделей Anthropic была внесена в «чёрный список»
Имхо, это наоборот белый список для американцев.

Zhan Chubukou
Zhan Chubukou Шчолкаю зубамі в ЗАО "Прыдацелі і атшчыпенцы"
0

GLM-4.7 выбил всех. Просто в новостях про это не пишут. И glm-5 уже в процессе. OpenAI уже может идти нах-й с их ценником. Очевидно, что если использовать подход - [чего-то больше и мы победимЪ], то победит Китай. Там всего больше в плане реального производства.

Пользователь отредактировал комментарий 3 марта 2026, 00:22