Как создать комьюнити на 300+ человек в IT-компании 💡
Support us

Anthropic разозлила Трампа: компания запрещает использовать Claude для слежки

Компания-разработчик модели Claude конфликтует с администрацией Дональда Трампа из-за отказа разрешить использование своих ИИ-инструментов для задач американских правоохранительных органов.

1 комментарий
Anthropic разозлила Трампа: компания запрещает использовать Claude для слежки

Компания-разработчик модели Claude конфликтует с администрацией Дональда Трампа из-за отказа разрешить использование своих ИИ-инструментов для задач американских правоохранительных органов.

По данным Semafor, компания отклонила запросы подрядчиков, работающих с федеральными агентствами, поскольку ее политика запрещает применять ИИ для внутреннего наблюдения за гражданами США.

В Белом доме это решение вызвало раздражение: чиновники считают, что Anthropic «выносит моральные суждения» о работе правоохранителей и намеренно формулирует свои правила размыто. Под ограничения попадают такие ведомства, как ФБР, Секретная служба и Служба иммиграции и таможенного контроля, что осложняет их работу с ИИ.

Для некоторых подрядчиков ситуация особенно проблемна, так как Claude — одна из немногих моделей, одобренных для работы в среде AWS GovCloud на уровне «совершенно секретно».

Хотя и другие компании ограничивают использование своих моделей для слежки, они чаще дают конкретные примеры и допускают исключения для законной деятельности властей. Например, политика OpenAI прямо запрещает «несанкционированное наблюдение», подразумевая, что мониторинг по решению суда или в рамках закона может быть разрешен.

Anthropic уже имеет соглашения с правительством США — например, предоставляет национальным ведомствам доступ к своим услугам за символический $1 и сотрудничает с Пентагоном, при этом сохраняя запрет на использование ИИ для разработки оружия.

В прошлом компания также спорила с администрацией Трампа, выступая против закона, который ограничивал бы возможность отдельных штатов самостоятельно регулировать сферу ИИ.

Эксперты отмечают, что ситуация поднимает важный вопрос: насколько поставщики ИИ могут и должны контролировать, как именно их технологии применяются государственными структурами. Традиционное ПО, вроде Microsoft Office, после продажи используется без ограничений, тогда как ИИ-модели сопровождаются целым набором условий.

Microsoft привела Anthropic в Office: её модели лучше OpenAI
Microsoft привела Anthropic в Office: её модели лучше OpenAI
По теме
Microsoft привела Anthropic в Office: её модели лучше OpenAI
Anthropic начнёт обучать ИИ на ваших чатах по умолчанию
Anthropic начнёт обучать ИИ на ваших чатах по умолчанию
По теме
Anthropic начнёт обучать ИИ на ваших чатах по умолчанию
Anthropic заблокировала OpenAI — та использовала Claude для внутренних тестов
Anthropic заблокировала OpenAI — та использовала Claude для внутренних тестов
По теме
Anthropic заблокировала OpenAI — та использовала Claude для внутренних тестов
Читайте также
Число софтверных вакансий в США падает 23 недели подряд. Эксперты: это только начало
Число софтверных вакансий в США падает 23 недели подряд. Эксперты: это только начало
Число софтверных вакансий в США падает 23 недели подряд. Эксперты: это только начало
7 комментариев
США запретили IT-компаниям с господдержкой строить заводы в Китае в течение 10 лет
США запретили IT-компаниям с господдержкой строить заводы в Китае в течение 10 лет
США запретили IT-компаниям с господдержкой строить заводы в Китае в течение 10 лет
Новый закон в Калифорнии обязывает все компании указывать зарплатные вилки и гендерную разницу в зарплате
Новый закон в Калифорнии обязывает все компании указывать зарплатные вилки и гендерную разницу в зарплате
Новый закон в Калифорнии обязывает все компании указывать зарплатные вилки и гендерную разницу в зарплате
7 комментариев
США запретили поставки передовых чипов в Китай и Россию
США запретили поставки передовых чипов в Китай и Россию
США запретили поставки передовых чипов в Китай и Россию

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

0

https://www.livescience.com/technology/artificial-intelligence/current-ai-models-a-dead-end-for-human-level-intelligence-expert-survey-claims
"Ученые сходятся во мнении, что существующие модели искусственного интеллекта — это «тупик» для интеллекта человеческого уровня."

"Из 475 опрошенных исследователей искусственного интеллекта 76% заявили, что масштабирование больших языковых моделей (LLM) «маловероятно» или «крайне маловероятно» для достижения общего искусственного интеллекта (AGI) — гипотетического рубежа, на котором системы машинного обучения смогут обучаться так же эффективно, или даже лучше, чем люди.

Это примечательное игнорирование прогнозов технологической отрасли, которая с момента бума генеративного ИИ в 2022 году утверждала, что текущим передовым моделям ИИ нужно всего лишь больше данных, оборудования, энергии и денег, чтобы превзойти человеческий интеллект."

"Теперь, когда выпуск новых моделей, по всей видимости, стагнирует , большинство исследователей, опрошенных Ассоциацией по развитию искусственного интеллекта, считают, что технологические компании зашли в тупик — и деньги не вытащат их из него."

Если масштабировать тыкву (неподходящую модель) то в конце всё равно будет тыква.

Пользователь отредактировал комментарий 18 сентября 2025, 15:14