Специалисты по кибербезопасности Keen Labs смогли сбить с курса систему беспилотного вождения Tesla, дорисовав на мостовой три небольших прямоугольника, пишет Business Insider.
Исследователи нашли два способа обмануть систему распознавание полосы автопилота Tesla — но не при помощи взлома, а изменив внешний вид дорожного покрытия.
В первом способе исследователи разместили стикеры, размывающие дорожную разметку, на левой разделительной линии. Однако в реальной жизни осуществить это злоумышленникам было бы слишком сложно, а автопилоту — нетрудно распознать, так как система часто встречалась с нечёткой разметкой в ходе испытаний. Поэтому беспилотные авто Tesla хорошо «чувствуют полосу» даже при плохом освещении или непогоде.
Но исследователи пошли дальше. Во втором случае они решили нанести несуществующую разметку и нарисовали на дороге три белых прямоугольника, которые имитировали конец полосы и уводили автомобиль на «встречку».
Этот способ, по мнению команды, гораздо более реален и опасен. Исследователи убеждены, что автопилот должен игнорировать разметку, которая заставляет его перестроиться на полосу со встречным движением, чтобы избежать аварий.
Tesla в ответ на работу Keen Labs заявила, что исследователи изменили физическую среду, чтобы ввести автопилот в заблуждение. Компания добавила, что эти проблемы не представляют угрозы в повседневной жизни, тем более что водитель может в любое время взять управление авто на себя. А находка Keen Labs не подпадает под программу вознаграждения Tesla.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.