Мошенники начали применять ИИ для подделки аудиосообщений
В соцсетях и мессенджерах распространяется новый метод вымогательства с помощью искусственного интеллекта для создания поддельных голосовых сообщений.
В соцсетях и мессенджерах распространяется новый метод вымогательства с помощью искусственного интеллекта для создания поддельных голосовых сообщений.
Мошенники получают доступ к аккаунту жертвы и рассылают аудиосообщения его знакомым и во все чаты, где он состоит, с просьбой о переводе денег. Также злоумышленники используют фотографии банковских карт, указывая на них имя и фамилию владельца украденного аккаунта. В некоторых случаях мошенники использовали данные паспорта пользователей, которые отличались от информации в соцсетях, что затрудняло выявление обмана.
Взлом аккаунтов в Telegram и WhatsApp происходит чаще всего через фишинговые атаки, в том числе с использованием фейковых голосований. После кражи аккаунта мошенники скачивают сохраненные голосовые сообщения и с помощью ИИ создают поддельные аудиозаписи. В большинстве подобных схем есть требование ввести свой номер телефона и SMS-код, которые необходимы злоумышленникам для доступа к аккаунтам.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.