В Google назвали самые частые способы злоупотребления ИИ

Специалисты Google DeepMind изучили, как именно злоумышленники чаще всего эксплуатируют технологию искусственного интеллекта. Самым популярным способом стало создание дипфейков политиков и знаменитостей. Гораздо реже ИИ используют в кибератаках.

Оставить комментарий

ИИ для создания реалистичных изображений, видео и аудио людей используется почти вдвое чаще, чем для фальсификации информации помощью текстовых инструментов, например чат-ботов, для распространения в сети. ИИ-дезинформация идёт на втором месте списка.

Источник: Ars Technica

Чаще всего — в 27% случаев — целью людей, злоупотребляющих генеративным ИИ, является воздействие на общественное мнение, например на результаты выборов. В Институте Алана Тьюринга отмечают важность вывода исследователей Google о том, что загрязнённость публичного контента ИИ-фейками может привести к «искажению коллективного понимания социополитической действительности». Риск заключается ещё и в том, что влияние дипфейков сложно уловить в настоящем моменте, а в долгосрочной перспективе оно может нести угрозу демократии.

Сотрудник перевёл мошенникам $25 млн после видеозвонка с дипфейками коллег
По теме
Сотрудник перевёл мошенникам $25 млн после видеозвонка с дипфейками коллег
Тейлор Свифт против порнотроллей: дипфейки певицы наводнили соцсети
По теме
Тейлор Свифт против порнотроллей: дипфейки певицы наводнили соцсети
В Испании неизвестные распространяют в школах нюдсы девочек, сгенерированные ИИ 
По теме
В Испании неизвестные распространяют в школах нюдсы девочек, сгенерированные ИИ

Читать на dev.by