Microsoft презентует инструмент для обнаружения дипфейков на видео и фотографиях. Программа Video Authenticator определяет вероятность того, что медиафайл подвергся манипуляциям. Компания считает, что разработка не только комплексно поможет бороться с дезинформацией, но и защитит кандидатов на президентских выборах 2020 года.
Как работает детектор дипфейков
В некотором смысле программа работает схоже с методам выявления дипфейков на фото. Проверить на подлинность статичный кадр — относительно просто, но движение объектов на видео создает дополнительную сложность. Video Authenticator разбивает видео на кадры и проверяет каждый из них.
Программа обнаруживает границу наложения дипфейка, которую не сможет различить человеческий глаз: незначительные изменения цвета и небольшие кластеры пикселей (артефактов). После анализа видео или фото, программное обеспечение выдает оценку подлинности в процентах.
Чтобы обучить Video Authenticator и улучшить алгоритмы по распознаванию дипфейков, компания использовала FaceForensics++. Это набор обработанных мультимедийных данных от Google. Для его сбора компания сняла видео с участием 28 актеров, а затем с использованием AI было сгенерировано 3 тысячи фальшивых видео.
Затем Microsoft протестировала Video Authenticator на датасете DeepFake Detection Challenge, который искусственный интеллект Facebook создал в рамках конкурса. Тогда Facebook наняла актеров, чтобы они снялись в сотне тысяч видеоклипов. Лица в клипах потом были заменены с применением различных методов, от Deep Learning до простых цифровых манипуляций.
Дипфейки и выборы в США
Хоть дипфейки не всегда создаются для причинения вреда, они могут зажить собственной жизнью по мере распространения в интернете и обмануть ничего не подозревающих зрителей. Выявление визуальной дезинформации по-прежнему является проблемой. Тем не менее компании продолжают работать над ПО для обнаружения дипфейков.
«Тот факт, что дипфейки создаются AI, который может обучаться вечно, усложняет их выявление. В краткосрочной перспективе, например, на предстоящих выборах в США, передовые технологии могут стать полезным инструментом, который поможет пользователям выявлять дипфейки», — замечают Microfost в посте-анонсе Video Authenticator.
Forbes пишет, что Трам обеспокоен проблемой дезинформацией в ходе предстоящих президентских выборов. Считается, что «рекламные» кампании, направленные на то, чтобы обманом заставить избирателей голосовать в неподходящем месте или не в то время, могу лишить избирательных прав большое количество американцев.
Стоит заметить, что Трамп и сам частенько распространяет фейки с соперником, кандидатом в президенты Джо Байденом. В одну из таких выходок президент ретвитнул видео с телеинтервью, во время которого Байден будто бы засыпает. Видео оказалось смонтированной фальшивкой.
В любом случае создать правдоподобный дипфейк предвыборных выступлений кандидатов или видеозвонков на данный момент почти невозможно. Исследования показали, что сбои в работе дипфейков часто случаются, когда субъект на видео запечатлены в профиль, быстро перемещается или разворачивается на 45 градусов и более.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.