ИИ ищет баги быстрее людей — эксперты говорят о точке перелома
Искусственный интеллект все ближе подходит к точке перелома в сфере кибербезопасности: модели уже способны находить уязвимости такого уровня сложности, который раньше требовал участия опытных специалистов. Это может вынудить индустрию радикально пересмотреть способы разработки программного обеспечения.
Искусственный интеллект все ближе подходит к точке перелома в сфере кибербезопасности: модели уже способны находить уязвимости такого уровня сложности, который раньше требовал участия опытных специалистов. Это может вынудить индустрию радикально пересмотреть способы разработки программного обеспечения.
Показательный случай произошел в ноябре 2025 года. Сооснователи стартапа RunSybil Влад Ионеску и Ариэль Херберт-Фосс поначалу не поверили сигналу, который выдал их ИИ-инструмент Sybil. Система указала на серьезную уязвимость в инфраструктуре одного из клиентов — и сначала разработчики решили, что это ошибка.
Sybil использует комбинацию нескольких ИИ-моделей и собственных технических приемов для анализа корпоративных систем. Он ищет типичные точки входа для атак: непропатченные серверы, неверные настройки баз данных, ошибки в API. В данном случае модель обнаружила проблему в реализации Federated GraphQL. Из-за некорректной конфигурации клиент фактически раскрывал конфиденциальную информацию.
Для нахождения этой уязвимости требовалось глубокое понимание сразу нескольких систем и того, как они взаимодействуют между собой. По словам Херберта-Фосса, команда проверила открытые источники и не нашла ни одного упоминания об этой проблеме: она не была описана ни в документации, ни в публичных отчетах. Позже RunSybil выявил аналогичную ошибку и в других внедрениях GraphQL. «Это был качественный скачок в возможностях рассуждения моделей», — отмечает он.
Этот эпизод иллюстрирует более широкую тенденцию. По мере роста интеллектуальных возможностей ИИ увеличивается и его способность находить критические уязвимости — ошибки, о которых разработчики еще не знают. Та же логика и вычислительная мощность, которые позволяют обнаруживать баги, могут быть использованы и для их эксплуатации.
Дон Сонг, профессор информатики Калифорнийского университета в Беркли и специалист по ИИ и безопасности, считает, что за последние месяцы произошел резкий скачок. По ее словам, на это повлияли два направления: «симулируемое рассуждение», при котором модель разбивает задачу на части, и агентные ИИ-системы, способные самостоятельно искать информацию в интернете, устанавливать и запускать инструменты. «Киберспособности передовых моделей резко выросли за очень короткое время. Мы находимся в точке перелома», — говорит Сонг.
В 2024 году ее команда разработала бенчмарк CyberGym для оценки того, насколько хорошо языковые модели находят уязвимости в крупных open-source-проектах. В нем собраны 1 507 известных уязвимостей из 188 проектов. Летом 2025 года модель Claude Sonnet 4 находила около 20% этих ошибок. Уже осенью новая версия — Claude Sonnet 4.5 — подняла показатель до 30%. По словам Сонг, ИИ-агенты уже способны находить уязвимости быстро и с минимальными затратами.
Эксперты сходятся во мнении, что без новых мер защиты ситуация будет ухудшаться. Один из вариантов — активнее использовать ИИ на стороне обороны, применяя его для проактивного аудита кода и инфраструктуры. Другой — допускать исследователей по безопасности к новым моделям до их публичного релиза, чтобы те могли заранее выявлять риски.
Однако, по мнению Сонг, этого может быть недостаточно. Она считает, что отрасли придется переосмыслить сам процесс разработки софта. В ее лаборатории уже показали, что ИИ может генерировать код, который по умолчанию безопаснее того, что обычно пишут люди. Такой подход «secure by design» — когда безопасность закладывается на уровне архитектуры — в долгосрочной перспективе может стать ключевым инструментом защиты.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.