Anthropic разозлила Трампа: компания запрещает использовать Claude для слежки
Компания-разработчик модели Claude конфликтует с администрацией Дональда Трампа из-за отказа разрешить использование своих ИИ-инструментов для задач американских правоохранительных органов.
По данным Semafor, компания отклонила запросы подрядчиков, работающих с федеральными агентствами, поскольку ее политика запрещает применять ИИ для внутреннего наблюдения за гражданами США.
В Белом доме это решение вызвало раздражение: чиновники считают, что Anthropic «выносит моральные суждения» о работе правоохранителей и намеренно формулирует свои правила размыто. Под ограничения попадают такие ведомства, как ФБР, Секретная служба и Служба иммиграции и таможенного контроля, что осложняет их работу с ИИ.
Для некоторых подрядчиков ситуация особенно проблемна, так как Claude — одна из немногих моделей, одобренных для работы в среде AWS GovCloud на уровне «совершенно секретно».
Хотя и другие компании ограничивают использование своих моделей для слежки, они чаще дают конкретные примеры и допускают исключения для законной деятельности властей. Например, политика OpenAI прямо запрещает «несанкционированное наблюдение», подразумевая, что мониторинг по решению суда или в рамках закона может быть разрешен.
Anthropic уже имеет соглашения с правительством США — например, предоставляет национальным ведомствам доступ к своим услугам за символический $1 и сотрудничает с Пентагоном, при этом сохраняя запрет на использование ИИ для разработки оружия.
В прошлом компания также спорила с администрацией Трампа, выступая против закона, который ограничивал бы возможность отдельных штатов самостоятельно регулировать сферу ИИ.
Эксперты отмечают, что ситуация поднимает важный вопрос: насколько поставщики ИИ могут и должны контролировать, как именно их технологии применяются государственными структурами. Традиционное ПО, вроде Microsoft Office, после продажи используется без ограничений, тогда как ИИ-модели сопровождаются целым набором условий.
Читать на dev.by