Дапамажыце dev.by 🤍
Падтрымаць

Microsoft запускает детектор дипфейков перед выборами в США

Пакінуць каментарый

Microsoft презентует инструмент для обнаружения дипфейков на видео и фотографиях. Программа Video Authenticator определяет вероятность того, что медиафайл подвергся манипуляциям. Компания считает, что разработка не только комплексно поможет бороться с дезинформацией, но и защитит кандидатов на президентских выборах 2020 года. 

Как работает детектор дипфейков

В некотором смысле программа работает схоже с методам выявления дипфейков на фото. Проверить на подлинность статичный кадр — относительно просто, но движение объектов на видео создает дополнительную сложность. Video Authenticator разбивает видео на кадры и проверяет каждый из них.

Программа обнаруживает границу наложения дипфейка, которую не сможет различить человеческий глаз: незначительные изменения цвета и небольшие кластеры пикселей (артефактов). После анализа видео или фото, программное обеспечение выдает оценку подлинности в процентах. 

Чтобы обучить Video Authenticator и улучшить алгоритмы по распознаванию дипфейков, компания использовала FaceForensics++. Это набор обработанных мультимедийных данных от Google. Для его сбора компания сняла видео с участием 28 актеров, а затем с использованием AI было сгенерировано 3 тысячи фальшивых видео. 

Затем Microsoft протестировала Video Authenticator на датасете DeepFake Detection Challenge, который искусственный интеллект Facebook создал в рамках конкурса. Тогда Facebook наняла актеров, чтобы они снялись в сотне тысяч видеоклипов. Лица в клипах потом были заменены с применением различных методов, от Deep Learning до простых цифровых манипуляций.

Дипфейки и выборы в США 

Хоть дипфейки не всегда создаются для причинения вреда, они могут зажить собственной жизнью по мере распространения в интернете и обмануть ничего не подозревающих зрителей. Выявление визуальной дезинформации по-прежнему является проблемой. Тем не менее компании продолжают работать над ПО для обнаружения дипфейков.

«Тот факт, что дипфейки создаются AI, который может обучаться вечно, усложняет их выявление. В краткосрочной перспективе, например, на предстоящих выборах в США, передовые технологии могут стать полезным инструментом, который поможет пользователям выявлять дипфейки», — замечают Microfost в посте-анонсе Video Authenticator.

Forbes пишет, что Трам обеспокоен проблемой дезинформацией в ходе предстоящих президентских выборов. Считается, что «рекламные» кампании, направленные на то, чтобы обманом заставить избирателей голосовать в неподходящем месте или не в то время, могу лишить избирательных прав большое количество американцев.

Стоит заметить, что Трамп и сам частенько распространяет фейки с соперником, кандидатом в президенты Джо Байденом. В одну из таких выходок президент ретвитнул видео с телеинтервью, во время которого Байден будто бы засыпает. Видео оказалось смонтированной фальшивкой.

В любом случае создать правдоподобный дипфейк предвыборных выступлений кандидатов или видеозвонков на данный момент почти невозможно. Исследования показали, что сбои в работе дипфейков часто случаются, когда субъект на видео запечатлены в профиль, быстро перемещается или разворачивается на 45 градусов и более.

Чытайце таксама
Авторы фильма с помощью дипфейков убрали 30 фраз со словом «f*ck», чтобы смягчить возрастной рейтинг
Авторы фильма с помощью дипфейков убрали 30 фраз со словом «f*ck», чтобы смягчить возрастной рейтинг
Авторы фильма с помощью дипфейков убрали 30 фраз со словом «f*ck», чтобы смягчить возрастной рейтинг
1 каментарый
Физик выдал выдал фото колбасы за снимок телескопа «Джеймс Уэбб». Пранк зашел слишком далеко
Физик выдал выдал фото колбасы за снимок телескопа «Джеймс Уэбб». Пранк зашел слишком далеко
Физик выдал выдал фото колбасы за снимок телескопа «Джеймс Уэбб». Пранк зашел слишком далеко
Домохозяйка из Китая 10 лет сочиняла выдуманную историю России в «Википедии»
Домохозяйка из Китая 10 лет сочиняла выдуманную историю России в «Википедии»
Домохозяйка из Китая 10 лет сочиняла выдуманную историю России в «Википедии»
Дипфейки и чужие голоса помогают мошенникам устраиваться на айтишные вакансии на удалёнке
Дипфейки и чужие голоса помогают мошенникам устраиваться на айтишные вакансии на удалёнке
Дипфейки и чужие голоса помогают мошенникам устраиваться на айтишные вакансии на удалёнке

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

Каментарыяў пакуль няма.