Дапамажыце dev.by 🤍
Падтрымаць

Anthropic раззлавала Трампа: кампанія забараняе выкарыстоўваць Claude для сачэння

Кампанія-распрацоўшчык мадэлі Claude канфліктуе з адміністрацыяй Дональда Трампа з-за адмовы дазволіць выкарыстанне сваіх ШІ-інструментаў для задач амерыканскіх праваахоўных органаў.

1 каментарый
Anthropic раззлавала Трампа: кампанія забараняе выкарыстоўваць Claude для сачэння

Кампанія-распрацоўшчык мадэлі Claude канфліктуе з адміністрацыяй Дональда Трампа з-за адмовы дазволіць выкарыстанне сваіх ШІ-інструментаў для задач амерыканскіх праваахоўных органаў.

Паводле дадзеных Semafor, кампанія адхіліла запыты падрадчыкаў, якія працуюць з федэральнымі агенцтвамі, паколькі яе палітыка забараняе ўжываць ШІ для ўнутранага назірання за грамадзянамі ЗША.

У Белым доме гэтае рашэнне выклікала раздражненне: чыноўнікі лічаць, што Anthropic «выносіць маральныя меркаванні» пра працу праваахоўцаў і наўмысна фармулюе свае правілы размыта. Пад абмежаванні трапляюць такія ведамствы, як ФБР, Сакрэтная служба і Служба іміграцыі і мытнага кантролю, што ўскладняе іх працу з ШІ.

Для некаторых падрадчыкаў сітуацыя асабліва праблемная, бо Claude — адна з нешматлікіх мадэляў, ухваленых для працы ў асяроддзі AWS GovCloud на ўзроўні «цалкам сакрэтна».

Хоць і іншыя кампаніі абмяжоўваюць выкарыстанне сваіх мадэляў для сачэння, яны часцей даюць канкрэтныя прыклады і дапускаюць выключэнні для законнай дзейнасці ўладаў. Напрыклад, палітыка OpenAI наўпрост забараняе «несанкцыянаванае назіранне», маючы на ўвазе, што маніторынг па рашэнні суда ці ў рамках закона можа быць дазволены.

Anthropic ужо мае пагадненні з урадам ЗША — напрыклад, прадастаўляе нацыянальным ведамствам доступ да сваіх паслуг за сімвалічны $1 і супрацоўнічае з Пентагонам, пры гэтым захоўваючы забарону на выкарыстанне ШІ для распрацоўкі зброі.

У мінулым кампанія таксама спрачалася з адміністрацыяй Трампа, выступаючы супраць закона, які абмяжоўваў бы магчымасць асобных штатаў самастойна рэгуляваць сферу ШІ.

Эксперты адзначаюць, што сітуацыя ўздымае важнае пытанне: наколькі пастаўшчыкі ШІ могуць і павінны кантраляваць, як менавіта іх тэхналогіі прымяняюцца дзяржаўнымі структурамі. Традыцыйнае ПЗ, накшталт Microsoft Office, пасля продажу выкарыстоўваецца без абмежаванняў, тады як ШІ-мадэлі суправаджаюцца цэлым наборам умоў.

Microsoft прывяла Anthropic у Office: яе мадэлі лепшыя за OpenAI
Microsoft прывяла Anthropic у Office: яе мадэлі лепшыя за OpenAI
Па тэме
Microsoft прывяла Anthropic у Office: яе мадэлі лепшыя за OpenAI
Anthropic пачне навучаць ШІ на вашых чатах па змаўчанні
Anthropic пачне навучаць ШІ на вашых чатах па змаўчанні
Па тэме
Anthropic пачне навучаць ШІ на вашых чатах па змаўчанні
Чытайце таксама
США запретили IT-компаниям с господдержкой строить заводы в Китае в течение 10 лет
США запретили IT-компаниям с господдержкой строить заводы в Китае в течение 10 лет
США запретили IT-компаниям с господдержкой строить заводы в Китае в течение 10 лет
Приложение Трампа Truth Social заблокировано в Google Play
Приложение Трампа Truth Social заблокировано в Google Play
Приложение Трампа Truth Social заблокировано в Google Play
BBC: система распознавания лиц в Москве состоит из четырех алгоритмов. Они определяют эмоции
BBC: система распознавания лиц в Москве состоит из четырех алгоритмов. Они определяют эмоции
BBC: система распознавания лиц в Москве состоит из четырех алгоритмов. Они определяют эмоции
Экс-глава службы безопасности о Twitter: «бессильнная и полная хаоса компания с внутренними разборками»
Экс-глава службы безопасности о Twitter: «бессильнная и полная хаоса компания с внутренними разборками»
Экс-глава службы безопасности о Twitter: «бессильнная и полная хаоса компания с внутренними разборками»
2 каментарыя

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

0

https://www.livescience.com/technology/artificial-intelligence/current-ai-models-a-dead-end-for-human-level-intelligence-expert-survey-claims
"Ученые сходятся во мнении, что существующие модели искусственного интеллекта — это «тупик» для интеллекта человеческого уровня."

"Из 475 опрошенных исследователей искусственного интеллекта 76% заявили, что масштабирование больших языковых моделей (LLM) «маловероятно» или «крайне маловероятно» для достижения общего искусственного интеллекта (AGI) — гипотетического рубежа, на котором системы машинного обучения смогут обучаться так же эффективно, или даже лучше, чем люди.

Это примечательное игнорирование прогнозов технологической отрасли, которая с момента бума генеративного ИИ в 2022 году утверждала, что текущим передовым моделям ИИ нужно всего лишь больше данных, оборудования, энергии и денег, чтобы превзойти человеческий интеллект."

"Теперь, когда выпуск новых моделей, по всей видимости, стагнирует , большинство исследователей, опрошенных Ассоциацией по развитию искусственного интеллекта, считают, что технологические компании зашли в тупик — и деньги не вытащат их из него."

Если масштабировать тыкву (неподходящую модель) то в конце всё равно будет тыква.

Пользователь отредактировал комментарий 18 сентября 2025, 15:14