Microsoft запускает детектор дипфейков перед выборами в США

Оставить комментарий

Microsoft презентует инструмент для обнаружения дипфейков на видео и фотографиях. Программа Video Authenticator определяет вероятность того, что медиафайл подвергся манипуляциям. Компания считает, что разработка не только комплексно поможет бороться с дезинформацией, но и защитит кандидатов на президентских выборах 2020 года. 

Как работает детектор дипфейков

В некотором смысле программа работает схоже с методам выявления дипфейков на фото. Проверить на подлинность статичный кадр — относительно просто, но движение объектов на видео создает дополнительную сложность. Video Authenticator разбивает видео на кадры и проверяет каждый из них.

Программа обнаруживает границу наложения дипфейка, которую не сможет различить человеческий глаз: незначительные изменения цвета и небольшие кластеры пикселей (артефактов). После анализа видео или фото, программное обеспечение выдает оценку подлинности в процентах. 

Чтобы обучить Video Authenticator и улучшить алгоритмы по распознаванию дипфейков, компания использовала FaceForensics++. Это набор обработанных мультимедийных данных от Google. Для его сбора компания сняла видео с участием 28 актеров, а затем с использованием AI было сгенерировано 3 тысячи фальшивых видео. 

Затем Microsoft протестировала Video Authenticator на датасете DeepFake Detection Challenge, который искусственный интеллект Facebook создал в рамках конкурса. Тогда Facebook наняла актеров, чтобы они снялись в сотне тысяч видеоклипов. Лица в клипах потом были заменены с применением различных методов, от Deep Learning до простых цифровых манипуляций.

Дипфейки и выборы в США 

Хоть дипфейки не всегда создаются для причинения вреда, они могут зажить собственной жизнью по мере распространения в интернете и обмануть ничего не подозревающих зрителей. Выявление визуальной дезинформации по-прежнему является проблемой. Тем не менее компании продолжают работать над ПО для обнаружения дипфейков.

«Тот факт, что дипфейки создаются AI, который может обучаться вечно, усложняет их выявление. В краткосрочной перспективе, например, на предстоящих выборах в США, передовые технологии могут стать полезным инструментом, который поможет пользователям выявлять дипфейки», — замечают Microfost в посте-анонсе Video Authenticator.

Forbes пишет, что Трам обеспокоен проблемой дезинформацией в ходе предстоящих президентских выборов. Считается, что «рекламные» кампании, направленные на то, чтобы обманом заставить избирателей голосовать в неподходящем месте или не в то время, могу лишить избирательных прав большое количество американцев.

Стоит заметить, что Трамп и сам частенько распространяет фейки с соперником, кандидатом в президенты Джо Байденом. В одну из таких выходок президент ретвитнул видео с телеинтервью, во время которого Байден будто бы засыпает. Видео оказалось смонтированной фальшивкой.

В любом случае создать правдоподобный дипфейк предвыборных выступлений кандидатов или видеозвонков на данный момент почти невозможно. Исследования показали, что сбои в работе дипфейков часто случаются, когда субъект на видео запечатлены в профиль, быстро перемещается или разворачивается на 45 градусов и более.


Читать на dev.by