Хотите дальше читать devby? 📝
Support us

Осторожно, поддельные Обама и Ким Чен Ын. Как создаются дипфейки и почему они опасны

Дипфейки, которые появляются благодаря AI, становится все сложнее распознать. Решили разобраться, как их используют для создания различного контента — от развлекательного до политического и к чему это приводит.

Оставить комментарий
Осторожно, поддельные Обама и Ким Чен Ын. Как создаются дипфейки и почему они опасны

Дипфейки, которые появляются благодаря AI, становится все сложнее распознать. Решили разобраться, как их используют для создания различного контента — от развлекательного до политического и к чему это приводит.

Что такое дипфейки и как они создаются

Дипфейк (deepfake — от сочетания deep learning и fake) — методика синтеза изображения, видео и аудио, которая основана на AI. Она используется для соединения и наложения новых изображений, видео и аудио на исходные фото, видео или звуковые дорожки. 

Процесс создания дипфейков достаточно трудоемкий. В случае с видео он может включать несколько этапов:

  1. Сначала вы загружаете тысячи снимков лиц двух людей (А — того, которого заменяют, и В — того, на которого заменяют) в специальный кодировщик (encoder). Алгоритм находит и изучает сходства между двумя лицами и сводит их к общим чертам, в процессе сжимая видео.
  2. Затем второй алгоритм — декодер (decoder) — «учится восстанавливать» лица из сжатых изображений. Для двух разных лиц при этом потребуются два декодера.
  3. Чтобы заменить одно лицо на другое, нужно в обученный на лице В декодер ввести сжатые данные лица А или наоборот. 
  4. Декодер в итоге восстанавливает лицо человека B с экспрессией и мимикой, характерными для лица A. 

Для получения качественного и убедительного видео весь процесс нужно делать отдельно для каждого кадра.

Еще один способ создания видеодипфеков предполагает использование генеративно-состязательных нейросетей или GAN. Алгоритм словно соревнуется сам с собой: одна его часть «учится» на реальных фотографиях и создает изображение, вторая проверяет подлинность изображения. Операция повторяется до тех пор, пока проверяющая часть алгоритма не начинает путать копию с оригиналом. 

Публичное использование и активное распространение технологии относят к 2017 году. Правда, это не означает, что до этого времени никто не создавал дипфейки — их активно применяли, к примеру, в киноиндустрии — для создания спецэффектов и несуществующих персонажей. 

Но настоящий бум технология пережила в 2017, когда один из пользователей Reddit выложил на ресурс порноролики, в которых лица актеров были заменены на лица знаменитых актрис и моделей — Галь Гадот, Тейлор Свифт, Скарлетт Йоханссон и других.

Популярность такого контента росла. И через год Reddit забанил свой сабреддит с 80 000 подписчиков — r/deepfakes. В группе часто выкладывали порноролики-фейки с участием селебрити. 

Фейковые президенты США и Ким Чен Ын

Популярности технологии дипфейков несколько лет назад прибавило и видео от Вашингтонского университета. В 2017 исследователи здесь сделали ролик с лже-Обамой.

На Обаме громкие истории с политическими дипфейками, естественно, не закончились. В мае 2018 в интернете появилось видео с нынешним президентом США. Дональд Трамп обратился к жителям Бельгии с призывом не признавать Парижское соглашение по климату. Ролик спровоцировал волну негативных высказываний в адрес Трампа, хотя и был сделан достаточно «криво», т. е. его сложно было принять за настоящий. Позже выяснилось, что за созданием видео стоит бельгийская соцпартия. Таким образом, пояснили политики, они хотели привлечь внимание к проблеме изменения климата. 

Дипфейки 2020 года отличаются от своих предшественников более высоким качеством — технология не стоит на месте. 

К примеру, фейкового Ким Чен Ына из ролика RepresentUs не все могут отличить от реального.

«По сравнению с 2019 количество просмотров подобных политических видео выросло в 20 раз», — говорят в компании CREOpoint, занимающейся защитой брендов и отслеживающей дезинформацию. По данным компании, с сентября 2019 года по октябрь 2020 года специализированные СМИ заработали на этой теме 120 миллионов просмотров на платформах своих соцсетей. В целом, 60 процентов всех дипфейков за последний год были политическими.

Подделать голос и «увести» из фирмы $250 тысяч

СМИ нередко пишут о поддельном фото- и видеоконтенте. Часто изображения и видео используют для создания порноконента и шантажа, а также для политических фейков. Но и аудиоклоны не редкость. К примеру, громкий скандал с аудио-дипфейком разгорелся в прошлом году. 

Жертвой мошенников стала одна из энергетических немецких компаний. В дочернее отделение позвонил якобы гендиректор из Германии и попросил срочно перевести деньги на счет венгерского поставщика. СЕО компании в Британии заподозрил неладное, когда после перевода звонки повторились, и то только потому, что поступали они не с немецкого, а с австрийского номера.  

Любопытно, что злоумышленники при помощи ПО для создания дипфейков смогли не только точно подделать голос гендиректора, но и его немецкий акцент. 

В итоге компания потеряла $243 000. Деньги с венгерского «уплыли» на счет в Мексике. 

В Италии от обнаженных дипфейков пострадали тысячи женщин

Управление по защите данных Италии на днях инициировало расследование использования ботов, которые создают поддельные обнаженные фото-дипфейки в Telegram. 

Ранее свое расследование провела охранная фирма Sensity. Выяснилось, что масштаб проблемы действительно велик.  

Боты могут генерировать такие фото частично обнаженными, а потом просить оплату за «раскрытие» всего изображения. Пользователи могут отправлять в такие каналы фотографию и получить обратно версию ню без указания, что изображение было изменено. По данным Sensity, оригинальные изображения берутся из социальных сетей. Жертвы нередко даже не догадываются, что их фото похищены и «раздеты». Часть пострадавших несовершеннолетние.

Sensity обнаружила, что изображения созданы ПО DeepNude, которое появилось в сети в прошлом году. Его создатель закрыл сайт, заявив, что «вероятность того, что люди воспользуются им не по назначению, слишком высока». Однако программное обеспечение было обновлено и сейчас доступно в репозиториях с открытым исходным кодом и на торрентах.

«Простота использования этой программы делает любого, у кого есть фотография в сети, потенциальной жертвой дипфейков», — говорится в заявлении Управления по защите данных Италии. Согласно заявлению, ведомство проведет проверку, соблюдает ли Telegram правила защиты данных своих пользователей.

Как отслеживают дипфейки

Если с обнаружением аудио- и фотодипфейков все более-менее понятно (подделки такого рода изучали давно), то с глубокими подделками видеоконта специалистам пришлось столкнуться сравнительно недавно.

Выявлением видео-дипфейков и серьезным изучением этого процесса занялись чуть более трех лет назад. Сперва процесс выявления такого контента был связан с обнаружением видимых недоработок. Однако со временем фейки стали лучше имитировать реальных персонажей, и их стало труднее обнаружить как специалистам, так и алгоритмам.

Есть два основных направления в работе по выявлению дипфейков. Первое предполагает изучение поведения людей на видео. Предположим, у вас есть много видео с какой-то известной личностью. AI может использовать этот контент, чтобы изучить шаблонное поведение человека — от жестов рук до пауз в речи. Затем оно сканирует дипфейк и находит моменты, где поведение персонажа фейкового ролика отличается от такового у реального человека. Преимущество такого подхода в том, что он работает даже при идеальном качестве видео. 

Еще одно направление в изучении и выявлении дипфейков связано с тем, что специалисты выделяют общие особенности всех фейковых видео. К примеру, нередко персонажи в видеоподделках неестественно моргают — слишком редко или часто, очень медленно или, наоборот, быстро. Правда, в последнее время таких грубых отличий в дипфейках становится все меньше. 

Проблемой занимаются не только крупные университеты и частные инициативы, но и ИТ-гиганты — в частности, Google, Facebook и Microsoft.

Google

Совместно с компанией Jigsaw в прошлом году выложила в свободный доступ датасет с более чем 3 000 видеороликов, созданных при помощи AI. Контент добавили в другой большой проект, посвященный видео-дипфейкам — FaceForensics++. При создании роликов использовались алгоритмы Deepfakes, Face2Face, FaceSwap и NeuralTextures. Датасет будет пополняться.

Ранее компания выпустила набор аудиозаписей искусственно созданной речи. Датасет был загружен более чем 150 научно-исследовательскими организациями и сейчас также находится в свободном доступе.

Microsoft

В сентябре был представлен Microsoft Video Authenticator (MVA). Инструмент оценивает процентную вероятность достоверности фото и видео. В случае с видео MVA может предоставить процент для каждого отдельно взятого кадра. Алгоритм находит границы наложения одного изображения на другое и выявляет даже незаметные для человеческого глаза цветовые несовпадения.

Facebook

В сентябре 2019 объявила Deepfake Detection Challenge (DFDC), челлендж закончился в июне 2020. Компания предложила посоревноваться в разработке эффективной модели по выявлению видеодипфейков. Призовой фонд составил $10 млн. 

«Челлендж объединил более 2000 участников со всего мира, позволил им обмениваться данными из 100 000 видео, тестировать различные модели, пробовать новые подходы и перенимать опыт друг у друга», — сказано на сайте компании в разделе, посвященном DFDC. 

Модели участников тестировали специалисты из Оксфордского университета, Национального университета Сингапура и Технического университета Мюнхена. В итоге эффективность модели-победителя составила 65,18%. 

И что из всего этого следует?

Очевидно, что ПО по созданию дипфейков будет и дальше совершенствоваться, а значит будет улучшаться и качество самих дипфейков. Возможно, алгоритмы смогут добится такого точного воспроизведения картинок, видео и аудио, что, как и в случае с произведениями искусства, подделку от оригинала будет отличить практически невозможно. 

Пока такая технология достаточно ресурсозатратна и по времени, и с точки зрения необходимого оборудования (на обычном компьютере это сделать практически невозможно). Поэтому в создание по-настоящему качественных дипфейков вкладываются немалые деньги.

Это значит, что заказчик преследует свои цели, нередко противозаконные (как в случае с фейковым порно и обнаженными фото) или полузаконные (когда речь идет о политической пропаганде).

Проверке подлинности контента многие крупные компании, такие как Google, Facebook и Microsoft, уделяют серьезное внимание. При этом, как признаются сами ИТ-гиганты, в этой сфере еще предстоит решить немало проблем. 

Помогаете devby = помогаете ИТ-комьюнити.

Засапортить сейчас.

Читайте также
Разработана нейросеть, которая делает женские нюдсы
Разработана нейросеть, которая делает женские нюдсы
Разработана нейросеть, которая делает женские нюдсы
1 комментарий
Тысячи людей притворяются сотрудниками Binance в LinkedIn
Тысячи людей притворяются сотрудниками Binance в LinkedIn
Тысячи людей притворяются сотрудниками Binance в LinkedIn
Авторы фильма с помощью дипфейков убрали 30 фраз со словом «f*ck», чтобы смягчить возрастной рейтинг
Авторы фильма с помощью дипфейков убрали 30 фраз со словом «f*ck», чтобы смягчить возрастной рейтинг
Авторы фильма с помощью дипфейков убрали 30 фраз со словом «f*ck», чтобы смягчить возрастной рейтинг
1 комментарий
Google уволила разработчика, который нашёл сознание у искусственного интеллекта
Google уволила разработчика, который нашёл сознание у искусственного интеллекта
Google уволила разработчика, который нашёл сознание у искусственного интеллекта
1 комментарий

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.