Кибератаки с использованием ИИ вышли на промышленный уровень — исследование
Исследователи Google предупредили о резком росте атак с использованием ИИ: за три месяца генеративные кибератаки, по оценке компании, превратился из ранней проблемы в угрозу промышленного масштаба.
Исследователи Google предупредили о резком росте атак с использованием ИИ: за три месяца генеративные кибератаки, по оценке компании, превратился из ранней проблемы в угрозу промышленного масштаба.
По данным Google Threat Intelligence Group, злоумышленники применяют Gemini, Claude, инструменты OpenAI и другие коммерческие модели, чтобы ускорять подготовку атак, тестировать операции, улучшать вредоносное ПО и масштабировать кампании против уязвимых систем.
«Существует заблуждение, что гонка ИИ за уязвимостями вот-вот начнется. Реальность в том, что она уже началась», — заявил главный аналитик Google Threat Intelligence Group Джон Халткист.
Сравнение методов поиска уязвимостей: традиционные анализаторы лучше находят низкоуровневые ошибки, а LLM и экспертная проверка — сложные логические уязвимости. Источник: Google.
По его словам, хакеры используют ИИ, чтобы повышать скорость, масштаб и сложность атак. «Он позволяет им тестировать свои операции, закрепляться в целях, создавать более качественное вредоносное ПО и вносить множество других улучшений», — отметил Халткист.
Отчет Google выходит на фоне растущих опасений вокруг возможностей новых ИИ-моделей в кибербезопасности. В прошлом месяце Anthropic отказалась публично выпускать модель Claude Mythos, заявив, что она обладает слишком мощными кибервозможностями и может быть опасна для правительств, финансовых институтов и инфраструктуры, если попадет не в те руки.
Однако исследователи указывают, что угроза не ограничивается закрытыми или экспериментальными моделями вроде Mythos. В отчете говорится, что одна преступная группа недавно была близка к использованию нулевой уязвимости для массовой кампании эксплуатации.
Уязвимость позволяла обходить двухфакторную аутентификацию в популярном open-source-инструменте для веб-администрирования, хотя для атаки все равно требовались действующие учетные данные. Google считает, что в коде эксплойта были признаки LLM-генерации: избыточные комментарии, «учебная» структура Python-скрипта и даже выдуманная оценка CVSS. По данным исследователей, хакеры применяли не Mythos, а другую большую языковую модель.
Еще один важный пример — Android-бэкдор PROMPTSPY. По данным Google, он использует Gemini API не просто как генератор текста, а как компонент автономной атаки. Вредоносный модуль GeminiAutomationAgent получает описание интерфейса зараженного устройства, отправляет его модели и получает структурированные команды: куда нажать, где сделать свайп и как взаимодействовать с экраном. Это позволяет вредоносному ПО динамически управлять устройством без постоянного участия оператора.
PROMPTSPY также может перехватывать биометрические данные жертвы для повторного воспроизведения PIN-кодов или графических ключей, а при попытке удаления накладывает невидимый слой поверх кнопки Uninstall, чтобы она казалась неработающей. Google заявляет, что отключила связанные с этой активностью ресурсы, а известных приложений с PROMPTSPY в Google Play сейчас не обнаружено.
Исследователи также обнаружили, что хакерские группы экспериментируют с OpenClaw — ИИ-инструментом, который стал вирусным в феврале. При этом эксперты призывают не видеть в ИИ только оружие для атакующих. Профессор кибербезопасности в Университетском колледже Лондона Стивен Мердок считает, что те же инструменты могут помочь и защитникам.
«Именно поэтому я не паникую. В целом мы достигли стадии, когда старый способ поиска багов ушел, и теперь все будет происходить с помощью LLM. Понадобится некоторое время, чтобы последствия этого стали понятны», — сказал Мердок.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.