Дапамажыце dev.by 🤍
Падтрымаць

Claude выціснуў ChatGPT з 1-га месца ў App Store на фоне спрэчкі Anthropic з Пентагонам — два месяцы таму быў 42-і

Пакуль OpenAI умацоўвае пазіцыі ў Вашынгтоне, Anthropic — сярод карыстальнікаў, піша Business Insider: у суботу аплікацыя Claude выйшла на 1 месца ў амерыканскім App Store.

2 каментарыя
Claude выціснуў ChatGPT з 1-га месца ў App Store на фоне спрэчкі Anthropic з Пентагонам — два месяцы таму быў 42-і

Пакуль OpenAI умацоўвае пазіцыі ў Вашынгтоне, Anthropic — сярод карыстальнікаў, піша Business Insider: у суботу аплікацыя Claude выйшла на 1 месца ў амерыканскім App Store.

Пасля публічнага канфлікту з Мінабароны ЗША з-за ўмоў выкарыстання сваіх мадэляў Anthropic была ўнесена ў «чорны спіс», і федэральныя агенцтвы павінны будуць паступова адмовіцца ад яе тэхналогій. Адразу пасля гэтага, у мінулую пятніцу, кіраўнік OpenAI Сэм Альтман абвясціў пра ўгоду з Пентагонам аб укараненні ШІ-мадэляў у засакрэчаную сетку ведамства.

Гэтае рашэнне выклікала неадназначную рэакцыю ў часткі карыстальнікаў ChatGPT. У сеціве пачаліся абмеркаванні этычных аспектаў такога супрацоўніцтва, а некаторыя прама заявілі, што пераходзяць да Claude.

Ужо ў суботу Claude заняў 1 месца сярод самых спампаваных дадаткаў у катэгорыі прадуктыўнасці ў App Store, а пачынаў год з 42 пазіцыі.

Карыстальнікі пачалі масава дзяліцца скрыншотамі міграцыі ў сацсетках. Спявачка Кэці Перы выклала скрын старонкі з тарыфамі Claude, абвёўшы сэрцайкам Pro-план за $215 у год. Іншыя выкладвалі скрыншоты з лістамі пра аплату Anthropic і пацверджаннем адпіскі ад OpenAI.

Супрацоўнікі Google і OpenAI апублікавалі адкрыты ліст у знак салідарнасці з Anthropic. Яго ўжо падпісала каля 800 чалавек.

На сабрэдыце ChatGPT дзясяткі карыстальнікаў заявілі, што выдалілі свае акаўнты, і заклікаюць іншых таксама «адмяняць» ChatGPT. Некаторыя карыстальнікі адзначалі, што рашэнне Альтмана «за мяжой».

Такую рэакцыю падзяляюць не ўсе карыстальнікі. Некаторыя на Reddit пісалі, што навіна не ўплывае на іх выбар ШІ-мадэлі, указваючы, што супрацоўніцтва Anthropic з Palantir выклікае аналагічныя пытанні. Яшчэ ў лістападзе 2024 года Anthropic, Palantir і AWS дамовіліся прадаставіць амерыканскім разведвальным і абаронным структурам доступ да мадэляў Claude.

Пасля таго як міністр абароны Піт Хегсет пагражаў прызнаць Anthropic «пагрозай нацбяспецы», кампанія адказала, што аспрэчыць любое такое рашэнне ў судзе.

Альтман у сваім посце падкрэсліў, што Мінабароны пагадзілася з двума ключавымі прынцыпамі бяспекі OpenAI: забарона на масавае сачэнне ўнутры краіны і адказнасць чалавека за прымяненне сілы, уключаючы аўтаномныя сістэмы ўзбраення. У суботу OpenAI апублікавала больш падрабязнае апісанне кантракту, уключаючы дакладныя фармулёўкі.

Наконт аўтаномнай зброі кампанія заявіла: «Сістэма ШІ не будзе выкарыстоўвацца для самастойнага кіравання аўтаномнымі ўзбраеннямі ў выпадках, калі закон, рэгуляванне або палітыка ведамства патрабуюць удзелу чалавека, а таксама не будзе прымаць іншыя крытычна важныя рашэнні, якія патрабуюць ухвалення чалавека ў рамках тых жа паўнамоцтваў».

Наконт масавага сачэння: «Сістэма ШІ не павінна выкарыстоўвацца для неабмежаванага маніторынгу прыватнай інфармацыі грамадзян ЗША ў адпаведнасці з дзеючымі паўнамоцтвамі».

Рэакцыя карыстальнікаў неадназначная. Нехта лічыць, што «ў бізнесе, вайне і дзяржзакупках усе сродкі добрыя». Іншыя адзначаюць, што пазіцыя Пентагона магла нечакана сыграць на руку Anthropic з пункту гледжання піяру.

OpenAI заключыла здзелку з Пентагонам адразу пасля ўнясення Anthropic у чорны спіс
OpenAI заключыла здзелку з Пентагонам адразу пасля ўнясення Anthropic у чорны спіс
Па тэме
OpenAI заключыла здзелку з Пентагонам адразу пасля ўнясення Anthropic у чорны спіс
Пентагон хоча выкарыстоўваць мадэль Anthropic без абмежаванняў у ваенных мэтах пагражае. Anthropic адмовіла
Пентагон хоча выкарыстоўваць мадэль Anthropic без абмежаванняў у ваенных мэтах, пагражае. Anthropic адмовіла
Па тэме
Пентагон хоча выкарыстоўваць мадэль Anthropic без абмежаванняў у ваенных мэтах, пагражае. Anthropic адмовіла
Вораг ёсць вораг: у сетцы завірусіўся няёмкі момант паміж гендырэктарамі OpenAI і Anthropic з ШІ-канферэнцыі
Вораг ёсць вораг: у сетцы завірусіўся няёмкі момант паміж гендырэктарамі OpenAI і Anthropic з ШІ-канферэнцыі
Па тэме
Вораг ёсць вораг: у сетцы завірусіўся няёмкі момант паміж гендырэктарамі OpenAI і Anthropic з ШІ-канферэнцыі
Чытайце таксама
У ЗША выйграна першая справа аб залежнасці ад сацсетак — Meta і Google пакараны за тое, як пабудаваны іх платформы
У ЗША выйграна першая справа аб залежнасці ад сацсетак — Meta і Google пакараны за тое, як пабудаваны іх платформы
У ЗША выйграна першая справа аб залежнасці ад сацсетак — Meta і Google пакараны за тое, як пабудаваны іх платформы
Боты абагналі людзей: ШІ стаў галоўнай крыніцай трафіку ў інтэрнэце
Боты абагналі людзей: ШІ стаў галоўнай крыніцай трафіку ў інтэрнэце
Боты абагналі людзей: ШІ стаў галоўнай крыніцай трафіку ў інтэрнэце
Meta кажа, што ЗША патрэбна паўмільёна электрыкаў для патрэб ШІ
Meta кажа, што ЗША патрэбна паўмільёна электрыкаў для патрэб ШІ
Meta кажа, што ЗША патрэбна паўмільёна электрыкаў для патрэб ШІ
Gemini навучыўся пераносіць дадзеныя з ChatGPT і Claude
Gemini навучыўся пераносіць дадзеныя з ChatGPT і Claude
Gemini навучыўся пераносіць дадзеныя з ChatGPT і Claude

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

Anonymous
Anonymous
0

После публичного конфликта с Минобороны США из-за условий использования своих моделей Anthropic была внесена в «чёрный список»
Имхо, это наоборот белый список для американцев.

Zhan Chubukou
Zhan Chubukou Шчолкаю зубамі в ЗАО "Прыдацелі і атшчыпенцы"
0

GLM-4.7 выбил всех. Просто в новостях про это не пишут. И glm-5 уже в процессе. OpenAI уже может идти нах-й с их ценником. Очевидно, что если использовать подход - [чего-то больше и мы победимЪ], то победит Китай. Там всего больше в плане реального производства.

Карыстальнік адрэдагаваў каментарый 3 сакавіка 2026, 00:22