🇵🇱 Дедлайн по e-PIT всё ближе ⏳ Поддержите devby из уже уплаченных налогов 💙
Support us

Anthropic разозлила Трампа: компания запрещает использовать Claude для слежки

Компания-разработчик модели Claude конфликтует с администрацией Дональда Трампа из-за отказа разрешить использование своих ИИ-инструментов для задач американских правоохранительных органов.

3 комментария
Anthropic разозлила Трампа: компания запрещает использовать Claude для слежки

Компания-разработчик модели Claude конфликтует с администрацией Дональда Трампа из-за отказа разрешить использование своих ИИ-инструментов для задач американских правоохранительных органов.

По данным Semafor, компания отклонила запросы подрядчиков, работающих с федеральными агентствами, поскольку ее политика запрещает применять ИИ для внутреннего наблюдения за гражданами США.

В Белом доме это решение вызвало раздражение: чиновники считают, что Anthropic «выносит моральные суждения» о работе правоохранителей и намеренно формулирует свои правила размыто. Под ограничения попадают такие ведомства, как ФБР, Секретная служба и Служба иммиграции и таможенного контроля, что осложняет их работу с ИИ.

Для некоторых подрядчиков ситуация особенно проблемна, так как Claude — одна из немногих моделей, одобренных для работы в среде AWS GovCloud на уровне «совершенно секретно».

Хотя и другие компании ограничивают использование своих моделей для слежки, они чаще дают конкретные примеры и допускают исключения для законной деятельности властей. Например, политика OpenAI прямо запрещает «несанкционированное наблюдение», подразумевая, что мониторинг по решению суда или в рамках закона может быть разрешен.

Anthropic уже имеет соглашения с правительством США — например, предоставляет национальным ведомствам доступ к своим услугам за символический $1 и сотрудничает с Пентагоном, при этом сохраняя запрет на использование ИИ для разработки оружия.

В прошлом компания также спорила с администрацией Трампа, выступая против закона, который ограничивал бы возможность отдельных штатов самостоятельно регулировать сферу ИИ.

Эксперты отмечают, что ситуация поднимает важный вопрос: насколько поставщики ИИ могут и должны контролировать, как именно их технологии применяются государственными структурами. Традиционное ПО, вроде Microsoft Office, после продажи используется без ограничений, тогда как ИИ-модели сопровождаются целым набором условий.

Microsoft привела Anthropic в Office: её модели лучше OpenAI
Microsoft привела Anthropic в Office: её модели лучше OpenAI
По теме
Microsoft привела Anthropic в Office: её модели лучше OpenAI
Anthropic начнёт обучать ИИ на ваших чатах по умолчанию
Anthropic начнёт обучать ИИ на ваших чатах по умолчанию
По теме
Anthropic начнёт обучать ИИ на ваших чатах по умолчанию
Anthropic заблокировала OpenAI — та использовала Claude для внутренних тестов
Anthropic заблокировала OpenAI — та использовала Claude для внутренних тестов
По теме
Anthropic заблокировала OpenAI — та использовала Claude для внутренних тестов
Поддержите редакцию 1,5% налога: бесплатно и за 5 минут

Как помочь, если вы в Польше

Читайте также
Anthropic переписала правила безопасности ИИ из-за ультиматума Пентагона
Anthropic переписала правила безопасности ИИ из-за ультиматума Пентагона
Anthropic переписала правила безопасности ИИ из-за ультиматума Пентагона
Пентагон хочет без ограничений применять модель Anthropic в военных целях, угрожает. Anthropic отказала
Пентагон хочет без ограничений применять модель Anthropic в военных целях, угрожает. Anthropic отказала
Пентагон хочет без ограничений применять модель Anthropic в военных целях, угрожает. Anthropic отказала
1 комментарий
Claude выбил ChatGPT с 1 места в App Store на фоне спора Anthropic с Пентагоном — два месяца назад был 42
Claude выбил ChatGPT с 1 места в App Store на фоне спора Anthropic с Пентагоном — два месяца назад был 42
Claude выбил ChatGPT с 1 места в App Store на фоне спора Anthropic с Пентагоном — два месяца назад был 42
2 комментария
Anthropic закрыла Claude для OpenClaw — доступ для агентов стал платным
Anthropic закрыла Claude для OpenClaw — доступ для агентов стал платным
Anthropic закрыла Claude для OpenClaw — доступ для агентов стал платным

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

0

https://www.livescience.com/technology/artificial-intelligence/current-ai-models-a-dead-end-for-human-level-intelligence-expert-survey-claims
"Ученые сходятся во мнении, что существующие модели искусственного интеллекта — это «тупик» для интеллекта человеческого уровня."

"Из 475 опрошенных исследователей искусственного интеллекта 76% заявили, что масштабирование больших языковых моделей (LLM) «маловероятно» или «крайне маловероятно» для достижения общего искусственного интеллекта (AGI) — гипотетического рубежа, на котором системы машинного обучения смогут обучаться так же эффективно, или даже лучше, чем люди.

Это примечательное игнорирование прогнозов технологической отрасли, которая с момента бума генеративного ИИ в 2022 году утверждала, что текущим передовым моделям ИИ нужно всего лишь больше данных, оборудования, энергии и денег, чтобы превзойти человеческий интеллект."

"Теперь, когда выпуск новых моделей, по всей видимости, стагнирует , большинство исследователей, опрошенных Ассоциацией по развитию искусственного интеллекта, считают, что технологические компании зашли в тупик — и деньги не вытащат их из него."

Если масштабировать тыкву (неподходящую модель) то в конце всё равно будет тыква.

Карыстальнік адрэдагаваў каментарый 18 верасня 2025, 15:14

0

Как это связано со статьей? Трамп хочет, чтобы ИИ компании хранили чаты и сливали их правительству по требованию. OpenAI уже заставили это делать - они обязаны хранить вечно даже удаленные пользователями чаты.

0

Ну значит не хочет Клод быть стукачом.. чо пристали всякие ФБРы))