🧑‍🎓 Бакалавриат, магистратура, MBA в Польше — подробный гайд
Support us

Кибератаки с использованием ИИ вышли на промышленный уровень — исследование

Исследователи Google предупредили о резком росте атак с использованием ИИ: за три месяца генеративные кибератаки, по оценке компании, превратился из ранней проблемы в угрозу промышленного масштаба.

Оставить комментарий
Кибератаки с использованием ИИ вышли на промышленный уровень — исследование

Исследователи Google предупредили о резком росте атак с использованием ИИ: за три месяца генеративные кибератаки, по оценке компании, превратился из ранней проблемы в угрозу промышленного масштаба.

По данным Google Threat Intelligence Group, злоумышленники применяют Gemini, Claude, инструменты OpenAI и другие коммерческие модели, чтобы ускорять подготовку атак, тестировать операции, улучшать вредоносное ПО и масштабировать кампании против уязвимых систем.

«Существует заблуждение, что гонка ИИ за уязвимостями вот-вот начнется. Реальность в том, что она уже началась», — заявил главный аналитик Google Threat Intelligence Group Джон Халткист.

Сравнение методов поиска уязвимостей: традиционные анализаторы лучше находят низкоуровневые ошибки, а LLM и экспертная проверка — сложные логические уязвимости. Источник: Google.

По его словам, хакеры используют ИИ, чтобы повышать скорость, масштаб и сложность атак. «Он позволяет им тестировать свои операции, закрепляться в целях, создавать более качественное вредоносное ПО и вносить множество других улучшений», — отметил Халткист.

Отчет Google выходит на фоне растущих опасений вокруг возможностей новых ИИ-моделей в кибербезопасности. В прошлом месяце Anthropic отказалась публично выпускать модель Claude Mythos, заявив, что она обладает слишком мощными кибервозможностями и может быть опасна для правительств, финансовых институтов и инфраструктуры, если попадет не в те руки.

Однако исследователи указывают, что угроза не ограничивается закрытыми или экспериментальными моделями вроде Mythos. В отчете говорится, что одна преступная группа недавно была близка к использованию нулевой уязвимости для массовой кампании эксплуатации.

Уязвимость позволяла обходить двухфакторную аутентификацию в популярном open-source-инструменте для веб-администрирования, хотя для атаки все равно требовались действующие учетные данные. Google считает, что в коде эксплойта были признаки LLM-генерации: избыточные комментарии, «учебная» структура Python-скрипта и даже выдуманная оценка CVSS. По данным исследователей, хакеры применяли не Mythos, а другую большую языковую модель.

5 мифов об ИИ-кодинге — мнение эксперта
5 мифов об ИИ-кодинге — мнение эксперта
По теме
5 мифов об ИИ-кодинге — мнение эксперта

Еще один важный пример — Android-бэкдор PROMPTSPY. По данным Google, он использует Gemini API не просто как генератор текста, а как компонент автономной атаки. Вредоносный модуль GeminiAutomationAgent получает описание интерфейса зараженного устройства, отправляет его модели и получает структурированные команды: куда нажать, где сделать свайп и как взаимодействовать с экраном. Это позволяет вредоносному ПО динамически управлять устройством без постоянного участия оператора.

PROMPTSPY также может перехватывать биометрические данные жертвы для повторного воспроизведения PIN-кодов или графических ключей, а при попытке удаления накладывает невидимый слой поверх кнопки Uninstall, чтобы она казалась неработающей. Google заявляет, что отключила связанные с этой активностью ресурсы, а известных приложений с PROMPTSPY в Google Play сейчас не обнаружено.

Исследователи также обнаружили, что хакерские группы экспериментируют с OpenClaw — ИИ-инструментом, который стал вирусным в феврале. При этом эксперты призывают не видеть в ИИ только оружие для атакующих. Профессор кибербезопасности в Университетском колледже Лондона Стивен Мердок считает, что те же инструменты могут помочь и защитникам.

«Именно поэтому я не паникую. В целом мы достигли стадии, когда старый способ поиска багов ушел, и теперь все будет происходить с помощью LLM. Понадобится некоторое время, чтобы последствия этого стали понятны», — сказал Мердок.

ИИ плохо работает на длинной дистанции — такого сотрудника уже уволили бы
ИИ плохо работает на длинной дистанции — такого сотрудника уже уволили бы
По теме
ИИ плохо работает на длинной дистанции — такого сотрудника уже уволили бы
«ИИ — не помощник. Он начальник»: почему новая угроза для работников — не увольнения а контроль
«ИИ — не помощник. Он начальник»: почему новая угроза для работников — не увольнения, а контроль
По теме
«ИИ — не помощник. Он начальник»: почему новая угроза для работников — не увольнения, а контроль
GitLab предложила сотрудникам уходить самим: делает ставку на ИИ-агентов
GitLab предложила сотрудникам уходить самим: делает ставку на ИИ-агентов
По теме
GitLab предложила сотрудникам уходить самим: делает ставку на ИИ-агентов
Читайте также
Gartner: атаки с генеративным ИИ стали мейнстримом
Gartner: атаки с генеративным ИИ стали мейнстримом
Gartner: атаки с генеративным ИИ стали мейнстримом
Вы напугали OpenAI: Альтман сказал сотрудникам, что свежие релизы Google могут создать проблемы для стартапа
Вы напугали OpenAI: Альтман сказал сотрудникам, что свежие релизы Google могут создать проблемы для стартапа
Вы напугали OpenAI: Альтман сказал сотрудникам, что свежие релизы Google могут создать проблемы для стартапа
ИИ-агенты — теперь главная внутренняя угроза бизнеса
ИИ-агенты — теперь главная внутренняя угроза бизнеса
ИИ-агенты — теперь главная внутренняя угроза бизнеса
6 способов взлома ИИ-агентов: список Google DeepMind
6 способов взлома ИИ-агентов: список Google DeepMind
6 способов взлома ИИ-агентов: список Google DeepMind

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.