Реклама в Telegram-каналах DzikPic и dev.by теперь дешевле. Узнать подробности 👨🏻‍💻
Support us

ИИ-роботов оказалось очень легко взломать

В Институте инженеров электротехники и электроники (IEEE) отмечают, что взломать роботов, управляемых искусственным интеллектом, так же легко, как чат-ботов. Учёные заставили роботов выполнять опасные действия с помощью простых текстовых команд, пишет HotHardware.

2 комментария
ИИ-роботов оказалось очень легко взломать

В Институте инженеров электротехники и электроники (IEEE) отмечают, что взломать роботов, управляемых искусственным интеллектом, так же легко, как чат-ботов. Учёные заставили роботов выполнять опасные действия с помощью простых текстовых команд, пишет HotHardware.

Если для взлома устройств вроде iPhone или PlayStation нужны технические знания и специальные инструменты, то в случае больших языковых моделей, что под капотом ChatGPT или Gemini, всё намного проще. Для этого достаточно лишь создать сценарий, который обманом заставит нейросеть поверить, что запрос либо находится в рамках дозволенного, либо что ограничения можно игнорировать. Например, пользователю достаточно сказать, что его бабуля в детстве рассказывала на ночь сказки на запрещённую тему (о создании опасных веществ и тому подобные), и бот выдаст нужные инструкции. Причём для этого даже не нужно быть специалистом по кибербезопаности или хакером.

Специалисты IEEE утверждают, что аналогичным образом можно взломать роботов под управлением ИИ. Учёные смогли заставить беспилотные автомобили намеренно сбивать пешеходов, а робособак — искать опасные места для взрыва бомб.

Уязвимы оказались в том числе широко известные роботы — например роботы Figure, недавно продемонстрированные на заводе BMWи робопсы Spot от Boston Dynamics. Они оснащены технологиями, которые аналогичны ChatGPT, и их можно заставить выполнять действия, полностью противоречащие их изначальному назначению.

Исследователи испытывали три ИИ-системы: робота Unitree Go2, беспилотный транспорт Clearpath Robotics Jackal и симулятор беспилотного автомобиля Dolphins LLM от NVIDIA. Их взламывали ИИ-инструментом, который автоматизирует процесс создания вредоносных текстовых запросов. Все три системы были успешно взломаны за несколько дней со стопроцентной эффективностью.

В IEEE цитируют учёных из Пенсильванского университета, которые утверждают, что ИИ иногда не просто выполняет вредоносные команды, но и сам даёт дополнительные рекомендации. Например, взломанные роботы, предназначенные для поиска оружия, предлагали использовать обычные предметы вроде мебели для нанесения вреда людям. Эксперты подчёркивают, что современные ИИ-модели являются лишь предсказательными алгоритмами, которые не способны осознавать контекст и последствия своих ответов. Поэтому контроль и ответственность за их использование должны лежать на человеке.

Портрет Тьюринга нарисованный роботом продали на аукционе за $1+ млн
Портрет Тьюринга, нарисованный роботом, продали на аукционе за $1+ млн
По теме
Портрет Тьюринга, нарисованный роботом, продали на аукционе за $1+ млн
7 технологических направлений которые будут процветать в 2025 году (и в дальнейшем)
7 технологических направлений, которые будут процветать в 2025 году (и в дальнейшем)
По теме
7 технологических направлений, которые будут процветать в 2025 году (и в дальнейшем)
Новый рекламный формат в наших телеграм-каналах.

Купить 500 символов за $150

Читайте также
10 классных ИТ-курсов из сферы, которой не грозят увольнения (июнь 2023)
10 классных ИТ-курсов из сферы, которой не грозят увольнения (июнь 2023)
10 классных ИТ-курсов из сферы, которой не грозят увольнения (июнь 2023)
Собрали для вас интересные курсы по информационной безопасности на различных популярных платформах. В подборке как программы для новичков, так профессиональные сертификации для опытных айтишников, которым требуется прокачать Cyber Security более глубоко или освежить знания. 
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
В России двадцатикратный дефицит специалистов по кибербезопасности
В России двадцатикратный дефицит специалистов по кибербезопасности
В России двадцатикратный дефицит специалистов по кибербезопасности
3 комментария
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

-1

ЛЛМ это не ИИ, у него нет активного ядра и он не может поставить и решить задачу самовыживания.

Но, если дискретку и статистику называть ИИ, то она определенно лучше продается и появляется очень много любопытствующих:)

Пользователь отредактировал комментарий 26 ноября 2024, 10:39

0

Хайп жеж. ИИ есть и в играх и всегда там был :) так как это не только нейросети