🇵🇱 Дедлайн по e-PIT всё ближе ⏳ Поддержите devby из уже уплаченных налогов 💙
Support us

Copilot пересказывал конфиденциальные письма из-за бага

Компания признала наличие ошибки в Microsoft 365 Copilot, из-за которой ИИ-ассистент мог обрабатывать и кратко пересказывать конфиденциальные письма, обходя политики защиты данных компаний-клиентов.

Оставить комментарий
Copilot пересказывал конфиденциальные письма из-за бага

Компания признала наличие ошибки в Microsoft 365 Copilot, из-за которой ИИ-ассистент мог обрабатывать и кратко пересказывать конфиденциальные письма, обходя политики защиты данных компаний-клиентов.

Согласно служебному уведомлению, проблема была впервые зафиксирована 21 января и затрагивает функцию Copilot Chat во вкладке «work». Из-за сбоя система неправильно индексировала и суммировала письма из папок «Отправленные» и «Черновики», даже если к ним были применены метки конфиденциальности и настроены политики предотвращения утечек данных (DLP).

«Сообщения электронной почты с примененной меткой конфиденциальности обрабатываются Microsoft 365 Copilot Chat некорректно», — заявили в Microsoft.

Компания уточнила, что причиной стал программный сбой. Исправление начали разворачивать в начале февраля. Сейчас Microsoft продолжала мониторинг внедрения патча и связывалась с частью клиентов, чтобы подтвердить корректность работы исправления. Microsoft не раскрыла, сколько организаций или пользователей могли столкнуться с проблемой, отметив, что масштаб инцидента еще уточняется.

Copilot — это ИИ-чат внутри Microsoft 365, интегрированный в Word, Excel, PowerPoint, Outlook и OneNote. Он стал доступен бизнес-клиентам по подписке в сентябре 2025 года и позиционируется как инструмент для работы с корпоративным контентом и документами.

Ваши чаты с ИИ могут быть использованы в суде — прецеденты уже есть
Ваши чаты с ИИ могут быть использованы в суде — прецеденты уже есть
По теме
Ваши чаты с ИИ могут быть использованы в суде — прецеденты уже есть
Хакеры пытались клонировать Gemini завалив чат-бот промптами
Хакеры пытались клонировать Gemini, завалив чат-бот промптами
По теме
Хакеры пытались клонировать Gemini, завалив чат-бот промптами
Как чат-боты подталкивают к неверным решениям — исследование
Как чат-боты подталкивают к неверным решениям — исследование
По теме
Как чат-боты подталкивают к неверным решениям — исследование
Поддержите редакцию 1,5% налога: бесплатно и за 5 минут

Как помочь, если вы в Польше

Читайте также
ИИ-модели лгут и обманывают, чтобы спасти другие ИИ
ИИ-модели лгут и обманывают, чтобы спасти другие ИИ
ИИ-модели лгут и обманывают, чтобы спасти другие ИИ
Техсектор США лидирует по увольнениям — максимум с 2023 года
Техсектор США лидирует по увольнениям — максимум с 2023 года
Техсектор США лидирует по увольнениям — максимум с 2023 года
Microsoft выпустила сразу три ИИ-модели: для текста, голоса и изображений
Microsoft выпустила сразу три ИИ-модели: для текста, голоса и изображений
Microsoft выпустила сразу три ИИ-модели: для текста, голоса и изображений
Студенты уже начали менять специальности из-за ИИ, половина — задумывались
Студенты уже начали менять специальности из-за ИИ, половина — задумывались
Студенты уже начали менять специальности из-за ИИ, половина — задумывались

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.