Anthropic начнёт обучать ИИ на ваших чатах по умолчанию
Компания объявила о серьезных изменениях в политике обработки пользовательских данных: до 28 сентября все пользователи Claude должны выбрать — согласиться на использование своих чатов и кодовых сессий для обучения моделей или отказаться от этого.
Компания объявила о серьезных изменениях в политике обработки пользовательских данных: до 28 сентября все пользователи Claude должны выбрать — согласиться на использование своих чатов и кодовых сессий для обучения моделей или отказаться от этого.
Ранее Anthropic не применяла переписки из потребительских сервисов для тренировки ИИ. Теперь же данные будут храниться до пяти лет и использоваться для улучшения систем, если пользователь не отключит эту функцию. До обновления переписки удалялись в течение 30 дней (или максимум двух лет при нарушении правил).
Новые правила затрагивают подписки Claude Free, Pro и Max, включая Claude Code, но не распространяются на корпоративные продукты: Claude Gov, Claude for Work, Claude for Education и API-доступ.
Новые пользователи должны выбрать настройку при регистрации. Существующим пользователям появится всплывающее окно с кнопкой «Принять» и маленьким переключателем разрешения на обучение — по умолчанию он включен. Те, кто нажмут «Принять», автоматически соглашаются на передачу данных.
Anthropic утверждает, что использование переписок поможет «повысить точность обнаружения вредоносного контента» и «улучшить навыки Claude в анализе, кодинге и рассуждениях». Однако эксперты отмечают, что компания, как и ее конкуренты OpenAI и Google, прежде всего нуждается в реальных пользовательских данных для сохранения конкурентоспособности.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.