Anthropic начнёт обучать ИИ на ваших чатах по умолчанию

Компания объявила о серьезных изменениях в политике обработки пользовательских данных: до 28 сентября все пользователи Claude должны выбрать — согласиться на использование своих чатов и кодовых сессий для обучения моделей или отказаться от этого.

Оставить комментарий

Ранее Anthropic не применяла переписки из потребительских сервисов для тренировки ИИ. Теперь же данные будут храниться до пяти лет и использоваться для улучшения систем, если пользователь не отключит эту функцию. До обновления переписки удалялись в течение 30 дней (или максимум двух лет при нарушении правил).

Новые правила затрагивают подписки Claude Free, Pro и Max, включая Claude Code, но не распространяются на корпоративные продукты: Claude Gov, Claude for Work, Claude for Education и API-доступ.

Новые пользователи должны выбрать настройку при регистрации. Существующим пользователям появится всплывающее окно с кнопкой «Принять» и маленьким переключателем разрешения на обучение — по умолчанию он включен. Те, кто нажмут «Принять», автоматически соглашаются на передачу данных.

Anthropic утверждает, что использование переписок поможет «повысить точность обнаружения вредоносного контента» и «улучшить навыки Claude в анализе, кодинге и рассуждениях». Однако эксперты отмечают, что компания, как и ее конкуренты OpenAI и Google, прежде всего нуждается в реальных пользовательских данных для сохранения конкурентоспособности.

CEO Nvidia: ИИ-бум только начинается — за 5 лет рынок вырастет в 5-7 раз
По теме
CEO Nvidia: ИИ-бум только начинается — за 5 лет рынок вырастет в 5-7 раз
Когда ИИ полностью заменит программистов? Учёные: очень нескоро
По теме
Когда ИИ полностью заменит программистов? Учёные: очень нескоро
Бизнесмен придумал фейковый ИИ и обманул инвесторов на $4,5 млн
По теме
Бизнесмен придумал фейковый ИИ и обманул инвесторов на $4,5 млн

Читать на dev.by