Claude выціснуў ChatGPT з 1-га месца ў App Store на фоне спрэчкі Anthropic з Пентагонам — два месяцы таму быў 42-і
Пакуль OpenAI умацоўвае пазіцыі ў Вашынгтоне, Anthropic — сярод карыстальнікаў, піша Business Insider: у суботу аплікацыя Claude выйшла на 1 месца ў амерыканскім App Store.
Пакуль OpenAI умацоўвае пазіцыі ў Вашынгтоне, Anthropic — сярод карыстальнікаў, піша Business Insider: у суботу аплікацыя Claude выйшла на 1 месца ў амерыканскім App Store.
Пасля публічнага канфлікту з Мінабароны ЗША з-за ўмоў выкарыстання сваіх мадэляў Anthropic была ўнесена ў «чорны спіс», і федэральныя агенцтвы павінны будуць паступова адмовіцца ад яе тэхналогій. Адразу пасля гэтага, у мінулую пятніцу, кіраўнік OpenAI Сэм Альтман абвясціў пра ўгоду з Пентагонам аб укараненні ШІ-мадэляў у засакрэчаную сетку ведамства.
Гэтае рашэнне выклікала неадназначную рэакцыю ў часткі карыстальнікаў ChatGPT. У сеціве пачаліся абмеркаванні этычных аспектаў такога супрацоўніцтва, а некаторыя прама заявілі, што пераходзяць да Claude.
Ужо ў суботу Claude заняў 1 месца сярод самых спампаваных дадаткаў у катэгорыі прадуктыўнасці ў App Store, а пачынаў год з 42 пазіцыі.
At the start of 2026, Claude was #42 in the App Store. Today, for the first time, we hit #1. pic.twitter.com/W8Zk1UGZKq
Карыстальнікі пачалі масава дзяліцца скрыншотамі міграцыі ў сацсетках. Спявачка Кэці Перы выклала скрын старонкі з тарыфамі Claude, абвёўшы сэрцайкам Pro-план за $215 у год. Іншыя выкладвалі скрыншоты з лістамі пра аплату Anthropic і пацверджаннем адпіскі ад OpenAI.
Супрацоўнікі Google і OpenAI апублікавалі адкрыты ліст у знак салідарнасці з Anthropic. Яго ўжо падпісала каля 800 чалавек.
На сабрэдыце ChatGPT дзясяткі карыстальнікаў заявілі, што выдалілі свае акаўнты, і заклікаюць іншых таксама «адмяняць» ChatGPT. Некаторыя карыстальнікі адзначалі, што рашэнне Альтмана «за мяжой».
Такую рэакцыю падзяляюць не ўсе карыстальнікі. Некаторыя на Reddit пісалі, што навіна не ўплывае на іх выбар ШІ-мадэлі, указваючы, што супрацоўніцтва Anthropic з Palantir выклікае аналагічныя пытанні. Яшчэ ў лістападзе 2024 года Anthropic, Palantir і AWS дамовіліся прадаставіць амерыканскім разведвальным і абаронным структурам доступ да мадэляў Claude.
Пасля таго як міністр абароны Піт Хегсет пагражаў прызнаць Anthropic «пагрозай нацбяспецы», кампанія адказала, што аспрэчыць любое такое рашэнне ў судзе.
Альтман у сваім посце падкрэсліў, што Мінабароны пагадзілася з двума ключавымі прынцыпамі бяспекі OpenAI: забарона на масавае сачэнне ўнутры краіны і адказнасць чалавека за прымяненне сілы, уключаючы аўтаномныя сістэмы ўзбраення. У суботу OpenAI апублікавала больш падрабязнае апісанне кантракту, уключаючы дакладныя фармулёўкі.
Наконт аўтаномнай зброі кампанія заявіла: «Сістэма ШІ не будзе выкарыстоўвацца для самастойнага кіравання аўтаномнымі ўзбраеннямі ў выпадках, калі закон, рэгуляванне або палітыка ведамства патрабуюць удзелу чалавека, а таксама не будзе прымаць іншыя крытычна важныя рашэнні, якія патрабуюць ухвалення чалавека ў рамках тых жа паўнамоцтваў».
Наконт масавага сачэння: «Сістэма ШІ не павінна выкарыстоўвацца для неабмежаванага маніторынгу прыватнай інфармацыі грамадзян ЗША ў адпаведнасці з дзеючымі паўнамоцтвамі».
Рэакцыя карыстальнікаў неадназначная. Нехта лічыць, што «ў бізнесе, вайне і дзяржзакупках усе сродкі добрыя». Іншыя адзначаюць, што пазіцыя Пентагона магла нечакана сыграць на руку Anthropic з пункту гледжання піяру.
Gemini навучыўся пераносіць дадзеныя з ChatGPT і Claude
Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот
Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале
Абмеркаванне
Каментуйце без абмежаванняў
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
Anonymous
2 сакавіка 2026, 13:44
0
После публичного конфликта с Минобороны США из-за условий использования своих моделей Anthropic была внесена в «чёрный список»
Имхо, это наоборот белый список для американцев.
GLM-4.7 выбил всех. Просто в новостях про это не пишут. И glm-5 уже в процессе. OpenAI уже может идти нах-й с их ценником. Очевидно, что если использовать подход - [чего-то больше и мы победимЪ], то победит Китай. Там всего больше в плане реального производства.
Карыстальнік адрэдагаваў каментарый 3 сакавіка 2026, 00:22
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
После публичного конфликта с Минобороны США из-за условий использования своих моделей Anthropic была внесена в «чёрный список»
Имхо, это наоборот белый список для американцев.
GLM-4.7 выбил всех. Просто в новостях про это не пишут. И glm-5 уже в процессе. OpenAI уже может идти нах-й с их ценником. Очевидно, что если использовать подход - [чего-то больше и мы победимЪ], то победит Китай. Там всего больше в плане реального производства.
Карыстальнік адрэдагаваў каментарый 3 сакавіка 2026, 00:22