Беспилотники Tesla можно обмануть «фантомными» изображениями на рекламных щитах

Исследователи из Университета имени Давида Бен-Гуриона в Израиле выяснили, что систему автопилота некоторых автомобилей можно заставить резко затормозить или свернуть, используя кратковременные световые проекции на билбордах, сообщает ZDNet.

Оставить комментарий

Исследователи безопасности обманули искусственный интеллект при помощи «фантомных» изображений длительностью всего в несколько кадров — например, знака «Стоп», — созданных светодиодами на электронных рекламных щитах.

Так, чтобы сбить с толку последнюю версию автопилота Tesla, учёным потребовалось вывести стоп-сигнал на билборд всего на 0,42 секунды. Беспилотникам MobileEye и вовсе «хватило» одной восьмой доли секунды.

Отмечается, что если таким способом взломать автопилот воспользуются злоумышленники, это может привести не только к пробкам на дороге, но и к серьёзным авариям. При этом хакеры не оставят за собой практически никаких следов, а водитель, как и другие участники дорожного движения, даже не сможет понять, почему его машина повела себя странно.

Эксперимент основан на более ранних исследованиях, когда для проверки реакции AI-систем на дорогу выводили проекции человека. Однако атаковать автомобили и провоцировать крупные ДТП через рекламные щиты злоумышленникам может быть намного удобнее, пишет ZDNet.

Научная работа израильских учёных будет представлена на ежегодной конференции по компьютерной безопасности ACM Conference on Computer and Communications Security в ноябре.


Читать на dev.by