У інстытуце інжынераў электратэхнікі і электронікі (IEEE) адзначаюць, што ўзламаць робатаў, якія кіруюцца штучным інтэлектам, так жа лёгка, як чат-ботаў. Навукоўцы прымусілі робатаў выконваць небяспечныя дзеянні з дапамогай простых тэкставых каманд, піша HotHardware.
У інстытуце інжынераў электратэхнікі і электронікі (IEEE) адзначаюць, што ўзламаць робатаў, якія кіруюцца штучным інтэлектам, так жа лёгка, як чат-ботаў. Навукоўцы прымусілі робатаў выконваць небяспечныя дзеянні з дапамогай простых тэкставых каманд, піша HotHardware.
Калі для ўзлому прылад накшталт iPhone або PlayStation патрэбныя тэхнічныя веды і спецыяльныя інструменты, то ў выпадку вялікіх моўных мадэляў, што пад капотам ChatGPT або Gemini, усё нашмат прасцей. Для гэтага дастаткова толькі стварыць сцэнар, які падманам прымусіць нейрасеткі паверыць, што запыт альбо знаходзіцца ў рамках дазволенага, альбо што абмежаванні можна ігнараваць. Напрыклад, карыстальніку дастаткова сказаць, што яго бабуля ў дзяцінстве расказвала нанач казкі на забароненую тэму (пра стварэнне небяспечных рэчываў і да таго падобныя), і бот выдасць патрэбныя інструкцыі. Прычым для гэтага нават не трэба быць спецыялістам у кібербяспецы або хакерам.
Спецыялісты IEEE сцвярджаюць, што аналагічным чынам можна ўзламаць робатаў пад кіраваннем АІ. Навукоўцы змаглі прымусіць беспілотныя аўтамабілі наўмысна збіваць пешаходаў, а робасабак — шукаць небяспечныя месцы для выбуху бомбаў.
Уразлівымі выявіліся ў тым ліку шырока вядомыя робаты — напрыклад, робаты Figure, нядаўна прадэманстраваныя на заводзе BMW і робасабакі Spot ад Boston Dynamics. Яны аснашчаныя тэхналогіямі, аналагічнымі ChatGPT, і іх можна прымусіць выконваць дзеянні, якія цалкам супярэчаць іх першапачатковаму прызначэнню.
Даследчыкі выпрабавалі тры АІ-сістэмы: робата Unitree Go2, беспілотны транспарт Clearpath Robotics Jackal і сімулятар беспілотнага аўтамабіля Dolphins LLM ад NVIDIA. Іх узломвалі АІ-інструментам, які аўтаматызуе працэс стварэння шкодных тэкставых запытаў. Усе тры сістэмы былі паспяхова ўзламаныя за некалькі дзён са стоадсоткавай эфектыўнасцю.
У IEEE цытуюць навукоўцаў з Пенсільванскага ўніверсітэта, якія сцвярджаюць, што АІ часам не проста выконвае шкодныя каманды, але і сам дае дадатковыя рэкамендацыі. Напрыклад, узламаныя робаты, прызначаныя для пошуку зброі, прапаноўвалі выкарыстоўваць звычайныя прадметы накшталт мэблі для нанясення шкоды людзям. Эксперты падкрэсліваюць, што сучасныя АІ-мадэлі з’яўляюцца толькі алгарытмамі прадказання, не здольнымі ўсведамляць кантэкст і наступствы сваіх адказаў. Таму кантроль і адказнасць за іх выкарыстанне маюць ляжаць на чалавеку.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
ЛЛМ это не ИИ, у него нет активного ядра и он не может поставить и решить задачу самовыживания.
Но, если дискретку и статистику называть ИИ, то она определенно лучше продается и появляется очень много любопытствующих:)
Карыстальнік адрэдагаваў каментарый 26 лістапада 2024, 10:39
Хайп жеж. ИИ есть и в играх и всегда там был :) так как это не только нейросети