АІ-робатаў выявілася вельмі лёгка ўзламаць

У інстытуце інжынераў электратэхнікі і электронікі (IEEE) адзначаюць, што ўзламаць робатаў, якія кіруюцца штучным інтэлектам, так жа лёгка, як чат-ботаў. Навукоўцы прымусілі робатаў выконваць небяспечныя дзеянні з дапамогай простых тэкставых каманд, піша HotHardware.

2 каментарыя

Калі для ўзлому прылад накшталт iPhone або PlayStation патрэбныя тэхнічныя веды і спецыяльныя інструменты, то ў выпадку вялікіх моўных мадэляў, што пад капотам ChatGPT або Gemini, усё нашмат прасцей. Для гэтага дастаткова толькі стварыць сцэнар, які падманам прымусіць нейрасеткі паверыць, што запыт альбо знаходзіцца ў рамках дазволенага, альбо што абмежаванні можна ігнараваць. Напрыклад, карыстальніку дастаткова сказаць, што яго бабуля ў дзяцінстве расказвала нанач казкі на забароненую тэму (пра стварэнне небяспечных рэчываў і да таго падобныя), і бот выдасць патрэбныя інструкцыі. Прычым для гэтага нават не трэба быць спецыялістам у кібербяспецы або хакерам.

Спецыялісты IEEE сцвярджаюць, што аналагічным чынам можна ўзламаць робатаў пад кіраваннем АІ. Навукоўцы змаглі прымусіць беспілотныя аўтамабілі наўмысна збіваць пешаходаў, а робасабак — шукаць небяспечныя месцы для выбуху бомбаў.

Уразлівымі выявіліся ў тым ліку шырока вядомыя робаты — напрыклад, робаты Figure, нядаўна прадэманстраваныя на заводзе BMW і робасабакі Spot ад Boston Dynamics. Яны аснашчаныя тэхналогіямі, аналагічнымі ChatGPT, і іх можна прымусіць выконваць дзеянні, якія цалкам супярэчаць іх першапачатковаму прызначэнню.

Даследчыкі выпрабавалі тры АІ-сістэмы: робата Unitree Go2, беспілотны транспарт Clearpath Robotics Jackal і сімулятар беспілотнага аўтамабіля Dolphins LLM ад NVIDIA. Іх узломвалі АІ-інструментам, які аўтаматызуе працэс стварэння шкодных тэкставых запытаў. Усе тры сістэмы былі паспяхова ўзламаныя за некалькі дзён са стоадсоткавай эфектыўнасцю.

У IEEE цытуюць навукоўцаў з Пенсільванскага ўніверсітэта, якія сцвярджаюць, што АІ часам не проста выконвае шкодныя каманды, але і сам дае дадатковыя рэкамендацыі. Напрыклад, узламаныя робаты, прызначаныя для пошуку зброі, прапаноўвалі выкарыстоўваць звычайныя прадметы накшталт мэблі для нанясення шкоды людзям. Эксперты падкрэсліваюць, што сучасныя АІ-мадэлі з’яўляюцца толькі алгарытмамі прадказання, не здольнымі ўсведамляць кантэкст і наступствы сваіх адказаў. Таму кантроль і адказнасць за іх выкарыстанне маюць ляжаць на чалавеку.

Портрет Тьюринга, нарисованный роботом, продали на аукционе за $1+ млн
По теме
Портрет Тьюринга, нарисованный роботом, продали на аукционе за $1+ млн
7 тэхналагічных напрамкаў, якія будуць квітнець у 2025 годзе (і ў далейшым)
Па тэме
7 тэхналагічных напрамкаў, якія будуць квітнець у 2025 годзе (і ў далейшым)

Читать на dev.by