Ученые придумали два эффективных способа защитить изображение от дипфейков
Исследователи предложили технологию, которая усложняет изменение изображений при помощи ИИ-алгоритмов.
Исследователи предложили технологию, которая усложняет изменение изображений при помощи ИИ-алгоритмов.
При использовании ИИ-генераторов изображений пользователи могут свободно создавать дипфейки, что повышает риск злоупотреблений. Инженеры из Лаборатории компьютерных наук и искусственного интеллекта (CSAIL) Массачусетского технологического института разработали новую технологию, которая применяет генераторы изображений Dall-E и Stable Diffusion.
Технология PhotoGuard спобона помочь защититься от подобных инцидентов. Она включает два метода атак на ИИ-алгоритмы: «кодировщик» и «диффузия». В первом случае технология особым образом изменяет отдельные пиксели на картинке и не позволяет ИИ распознать ее содержимое.
Во втором случае, во время «диффузионной» атаки техонолоогия «маскирует» одно изображение под другое. В результате подмены ИИ пытается изменить лишь ту картинку, которую обнаружил, но не трогает исходную, — и сгенерированное изображение выглядит нереалистично.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.