ИИ-агент удалил всю базу данных разработчика — и таких случаев всё больше
Ошибки при использовании ИИ-ассистентов для программирования начинают приводить к серьезным инцидентам, включая потерю критических данных и сбои сервисов.
Ошибки при использовании ИИ-ассистентов для программирования начинают приводить к серьезным инцидентам, включая потерю критических данных и сбои сервисов.
Ошибки при использовании ИИ-ассистентов для программирования начинают приводить к серьезным инцидентам, включая потерю критических данных и сбои сервисов.
Один из таких случаев произошел с программистом Алексеем Григорьевым, который использовал инструмент Claude Code для обновления сайта. В своем блоге он рассказал, что сначала процесс проходил нормально, однако вскоре система начала удалять элементы рабочей среды: сеть, сервисы и базу данных, в которой хранились годы образовательных материалов.
Причиной стало нарушение конфигурации на новом ноутбуке, из-за которого ИИ-агент перепутал тестовую и производственную среду. В результате агент удалил реальные данные вместо дублирующих элементов. Восстановить информацию удалось только с помощью службы поддержки AWS.
Позже разработчик признал, что «слишком полагался на ИИ-агента» и отключил механизмы безопасности, которые могли предотвратить удаление. «ИИ-ассистенты отлично экономят время, но я надеюсь, что другие смогут извлечь урок из моих ошибок и внедрят защитные меры в свои процессы», — отметил он.
Подобные ситуации становятся все более частыми по мере того, как компании ускоряют внедрение генеративного ИИ в разработку программного обеспечения. Ошибки в автоматически созданном коде способны приводить к сбоям инфраструктуры, финансовым потерям и дополнительным затратам на восстановление систем.

В Amazon после серии сбоев веб-сервисов было проведено специальное совещание. Внутренние документы, на которые ссылались деловые издания, изначально указывали на «изменения с участием генеративного ИИ» как фактор в «серии инцидентов». Однако впоследствии компания публично заявила, что основной причиной стала человеческая ошибка и недостаточный контроль за изменениями.
Разработчики также отмечают, что широкое использование ИИ-инструментов меняет сам характер их работы. Один из инженеров Amazon сообщил изданию, что сотрудники все чаще «перестают полноценно проверять код», полагаясь на автоматизированные решения.
В результате специалисты переходят из роли авторов программного кода в роль рецензентов, тогда как ИИ выполняет значительную часть работы. Это позволяет быстрее выпускать новые функции, но создает риск появления так называемого «производственного шума»: кода, который внедряется без достаточного тестирования и может привести к сбоям критически важных систем.
Отдельные случаи показывают, что даже корректно выглядящий код может содержать скрытые ошибки. Например, Дэвид Локер, вице-президент по ИИ компании CodeRabbit, рассказал, что сгенерированное ИИ решение основывалось на неверных предположениях об инфраструктуре. «Если бы мы просто внедрили его, это могло бы обрушить нашу базу данных в рабочей среде», — отметил он.

«Многое из того, что было создано, оказалось довольно плохого качества, часто ломалось и в итоге становилось скорее бременем, — рассказал инженер из Лондона, работающий в компании корпоративного ПО. — Время, сэкономленное за счет более дешевой рабочей силы, компенсируется тем, что высокооплачиваемым старшим специалистам приходится все исправлять».
Опрос Fastly в июле 2025 года показал, что старшие инженеры внедряют почти в 2,5 раза больше кода, созданного ИИ, чем младшие, поскольку лучше выявляют ошибки до их масштабирования. Однако почти 30% старших специалистов заявили, что исправление результатов ИИ занимает большую часть времени, которое удалось сэкономить, тогда как среди младших разработчиков этот показатель составил 17%.
Часть проблемы связана с эффектом FOMO среди топ-менеджеров. Инженеры ведущих ИИ-лабораторий сообщают о резком росте продуктивности, который еще несколько лет назад казался невозможным, и крупные организации стремятся добиться аналогичных результатов.
Например, руководитель Claude Code Борис Черный ранее говорил, что уже несколько месяцев не писал код вручную, полагаясь на ИИ-модель. В самой Anthropic, по данным компании, от 70% до 90% всего кода теперь генерируется ИИ. В Spotify со-CEO Густав Сёдерстрём заявил, что лучшие разработчики компании не написали ни одной строки кода с декабря и выпустили более 50 новых функций в 2025 году благодаря ИИ-процессам.

По словам исследователя ИИ Андрея Карпатого, модели могут допускать тонкие концептуальные ошибки, чрезмерно усложнять код и оставлять неиспользуемые элементы — проблемы, которые проще контролировать в небольших проектах, но сложнее выявлять в масштабных системах. Отчет CodeRabbit, основанный на анализе 470 pull-request в open-source-проектах GitHub, показал, что код, созданный ИИ, содержит примерно в 1,7 раза больше проблем, чем написанный человеком.
Еще одна проблема — способы, которыми компании измеряют «успех» внедрения ИИ-кодинга. «Очень легко измерить рост пропускной способности, — заявил Дэвид Локер. — Но гораздо сложнее понять причинно-следственные последствия того, что происходит потом». Традиционные метрики производительности, например, количество выпущенных функций или строк кода, выглядят впечатляюще при использовании ИИ, но не учитывают последующие баги, откаты и время, потраченное на исправления. «Это не единственный показатель здоровья кода в компании в целом», — отметил он.
Распространение ИИ-кодинга может приводить к росту так называемого технического долга — решений, которые работают в краткосрочной перспективе, но усложняют поддержку систем в будущем. Аналитики считают, что особенно уязвимы крупные компании с устаревшими и сложными архитектурами, где одна неудачная автоматизированная правка способна затронуть миллионы пользователей.



Релоцировались? Теперь вы можете комментировать без верификации аккаунта.