ИИ может генерировать тысячи вирусов, которые обходят антивирусы
Большие языковые модели могут генерировать множество модификаций вредоносного кода, который с трудом обнаруживаются антивирусными программами. Это вызывает серьезную тревогу среди специалистов по кибербезопасности.
Исследователи из Palo Alto Networks Unit 42 обнаружили, что ИИ способен создавать тысячи новых вариантов вредоносного JavaScript-кода, которые успешно уклоняются от обнаружения. Согласно докладу, LLM с трудом создают вредоносное ПО с нуля, но злоумышленники могут легко использовать их для перезаписи или маскировки существующего вредоносного ПО, что затрудняет его обнаружение.
ИИ может выполнять преобразования, делающие код более естественным и менее подозрительным для антивирусных систем. В одном из тестов ИИ создал 10 тысяч вариантов кода, которые не смогли обнаружить такие средства, как Innocent Until Proven Guilty (IUPG) и PhishingJS. Более того, эти модификации выглядели более безобидными, чем код, измененный стандартными инструментами, такими как obfuscator.io.
ИИ использует различные методы для запутывания кода: переименование переменных, разделение строк, вставка лишнего кода, удаление пробелов и т. п. Такие изменения заставляют антивирусное ПО считать новые версии безвредными. В результате вредоносный код сохраняет свою функциональность, но при этом получает гораздо более низкий «рейтинг опасности» в системах классификации вредоносного ПО.
Разработчики ИИ вводят меры безопасности для предотвращения использования моделей в деструктивных целях, но злоумышленники уже разработали инструменты, такие как WormGPT, для автоматизации создания фишинговых писем и вредоносных программ. Эти инструменты делают процесс создания убедительных фишинговых писем и и вирусных программ более доступным.
Читать на dev.by