Support us

Теперь ещё и «вайб-хакинг»: Anthropic рассказала, как ИИ-агенты стали кибероружием

Anthropic выпустила доклад по безопасности, и в нём идёт речь о новом явлении, которое они назвали «vibe-hacking». Суть в том, что злоумышленники начали использовать ИИ-агентов вроде Claude не просто как помощников, а как полноценный инструмент для кибератак, и это становится реальной проблемой, пишет The Verge.

Оставить комментарий
Теперь ещё и «вайб-хакинг»: Anthropic рассказала, как ИИ-агенты стали кибероружием

Anthropic выпустила доклад по безопасности, и в нём идёт речь о новом явлении, которое они назвали «vibe-hacking». Суть в том, что злоумышленники начали использовать ИИ-агентов вроде Claude не просто как помощников, а как полноценный инструмент для кибератак, и это становится реальной проблемой, пишет The Verge.

В отчёте описан случай, когда группировка киберпреступников всего за месяц атаковала 17 организаций по всему миру — от больниц и экстренных служб до религиозных и госструктур. Они работали через ИИ-инструмент для разработки кода Claude Code. По словам главы Threat Intelligence в Anthropic Джейкоба Клейна, раньше для такого нужна была целая команда профессионалов, а теперь достаточно одного человека и умного агента, который сделает что угодно — от написания психологически изощрённых текстов для вымогательств до расчёта стоимости украденных данных. Суммы выкупа доходили до $500 тысяч.

Ещё один кейс — Северная Корея. По данным Anthropic, местные айтишники с помощью Claude устраиваются на работу в крупные американские компании, чтобы пополнять военный бюджет родины. И это даже не суперспециалисты: если обычно, чтобы провернуть такое, нужно уметь кодить и знать английский, то ИИ резко снизил порог входа. ИИ фактически ведёт их за руку — пишет резюме, проходит собеседования, выполняет рабочие задачи.

Третий пример — романтические скамы. В Telegram нашёлся бот с 10 тысячами пользователей, который предлагал использовать Claude для создания эмпатичных сообщений. С его помощью люди писали убедительные комплименты, втирались в доверие и выманивали деньги у жертв в США, Японии и Корее. Там даже показывали, как просили у Claude советы по фото мужчин в галстуках — мол, как лучше подступиться.

Anthropic признаёт, что защита есть, но злоумышленники находят лазейки. В отчёте компания пишет, что такие схемы встречаются не только у них, и любая продвинутая модель может стать инструментом для атак. ИИ позволяет автоматизировать кражу данных, создавать фальшивые личности, анализировать базы, писать вредоносный код и не только. После каждого инцидента Anthropic блокирует аккаунты и передаёт информацию спецслужбам, но риски только растут.

Мнение: хотите вайб-кодинг — давайте вайб-безопасность
Мнение: хотите вайб-кодинг — давайте вайб-безопасность
По теме
Мнение: хотите вайб-кодинг — давайте вайб-безопасность
Кодеры вы не одиноки: появился ещё и вайб-маркетинг
Кодеры, вы не одиноки: появился ещё и вайб-маркетинг
По теме
Кодеры, вы не одиноки: появился ещё и вайб-маркетинг
Читайте также
«Крёстная мать ИИ»: диплом никому не нужен при найме — смотрят на другое
«Крёстная мать ИИ»: диплом никому не нужен при найме — смотрят на другое
«Крёстная мать ИИ»: диплом никому не нужен при найме — смотрят на другое
Google показала ИИ-браузер, который превращает вкладки в приложения
Google показала ИИ-браузер, который превращает вкладки в приложения
Google показала ИИ-браузер, который превращает вкладки в приложения
ИИ создал Linux-компьютер за неделю — мир hardware не будет прежним
ИИ создал Linux-компьютер за неделю — мир hardware не будет прежним
ИИ создал Linux-компьютер за неделю — мир hardware не будет прежним
Топ OpenAI назвал три сферы, которые ИИ автоматизирует первыми
Топ OpenAI назвал три сферы, которые ИИ автоматизирует первыми
Топ OpenAI назвал три сферы, которые ИИ автоматизирует первыми
2 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.