Copilot пересказывал конфиденциальные письма из-за бага
Компания признала наличие ошибки в Microsoft 365 Copilot, из-за которой ИИ-ассистент мог обрабатывать и кратко пересказывать конфиденциальные письма, обходя политики защиты данных компаний-клиентов.
Компания признала наличие ошибки в Microsoft 365 Copilot, из-за которой ИИ-ассистент мог обрабатывать и кратко пересказывать конфиденциальные письма, обходя политики защиты данных компаний-клиентов.
Согласно служебному уведомлению, проблема была впервые зафиксирована 21 января и затрагивает функцию Copilot Chat во вкладке «work». Из-за сбоя система неправильно индексировала и суммировала письма из папок «Отправленные» и «Черновики», даже если к ним были применены метки конфиденциальности и настроены политики предотвращения утечек данных (DLP).
«Сообщения электронной почты с примененной меткой конфиденциальности обрабатываются Microsoft 365 Copilot Chat некорректно», — заявили в Microsoft.
Компания уточнила, что причиной стал программный сбой. Исправление начали разворачивать в начале февраля. Сейчас Microsoft продолжала мониторинг внедрения патча и связывалась с частью клиентов, чтобы подтвердить корректность работы исправления. Microsoft не раскрыла, сколько организаций или пользователей могли столкнуться с проблемой, отметив, что масштаб инцидента еще уточняется.
Copilot — это ИИ-чат внутри Microsoft 365, интегрированный в Word, Excel, PowerPoint, Outlook и OneNote. Он стал доступен бизнес-клиентам по подписке в сентябре 2025 года и позиционируется как инструмент для работы с корпоративным контентом и документами.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.