Ученые придумали два эффективных способа защитить изображение от дипфейков

Исследователи предложили технологию, которая усложняет изменение изображений при помощи ИИ-алгоритмов.

Оставить комментарий

При использовании ИИ-генераторов изображений пользователи могут свободно создавать дипфейки, что повышает риск злоупотреблений. Инженеры из Лаборатории компьютерных наук и искусственного интеллекта (CSAIL) Массачусетского технологического института разработали новую технологию, которая применяет генераторы изображений Dall-E и Stable Diffusion.

Технология PhotoGuard спобона помочь защититься от подобных инцидентов. Она включает два метода атак на ИИ-алгоритмы: «кодировщик» и «диффузия». В первом случае технология особым образом изменяет отдельные пиксели на картинке и не позволяет ИИ распознать ее содержимое.

Во втором случае, во время «диффузионной» атаки техонолоогия «маскирует» одно изображение под другое. В результате подмены ИИ пытается изменить лишь ту картинку, которую обнаружил, но не трогает исходную, — и сгенерированное изображение выглядит нереалистично.

Использование ИИ в работе повышает зарплату и шансы на карьерный рост — опрос
По теме
Использование ИИ в работе повышает зарплату и шансы на карьерный рост — опрос
NYT: Google предлагает журналистам ИИ-помощника для написания статей
По теме
NYT: Google предлагает журналистам ИИ-помощника для написания статей
В подписке Microsoft 365 появится ИИ-помощник Copilot. Цена поднимется в два-три раза
По теме
В подписке Microsoft 365 появится ИИ-помощник Copilot. Цена поднимется в два-три раза

Читать на dev.by