Исследователи из немецкого Ruhr-Universitaet нашли способ скрывать неслышимые человеку команды в аудиофайлах, на которые реагируют голосовые помощники, пишет Fast Company.
По словам учёных, проблема кроется в самом способе взаимодействия искусственного интеллекта с окружающим миром. Для атаки используют метод под названием «психоакустическое сокрытие». Речь идёт о манипуляцях аудиоволнами (от песен до записанного пения птиц) на которые реагируют голосовые помощники. При этом человек не услышит ничего подозрительного.
Проиграв нужный файл с помощью приложения, можно заставить Alexa, Siri или Cortana выполнить нужную команду. А если организовать проигрывание на ТВ или радио, атака может затронуть сотни, если не тысячи голосовых помощников, уверены исследователи.
Но есть и одно «но»: тестируя технику взлома, учёные напрямую «скармливали» нужные файлы устройствам. При этом они уверены, что простое проигрывание будет иметь такой же итог: «в общем случае можно спрятать любую команду в любом аудиофайле с вероятностью успеха около 100 процентов».
Ранее похожих результатов добились другие исследователи: они задавали к команды Alexa на неразличимых для человеческого уха частотах.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.