Дапамажыце dev.by 🤍
Падтрымаць

АІ-робатаў выявілася вельмі лёгка ўзламаць

У інстытуце інжынераў электратэхнікі і электронікі (IEEE) адзначаюць, што ўзламаць робатаў, якія кіруюцца штучным інтэлектам, так жа лёгка, як чат-ботаў. Навукоўцы прымусілі робатаў выконваць небяспечныя дзеянні з дапамогай простых тэкставых каманд, піша HotHardware.

2 каментарыя
АІ-робатаў выявілася вельмі лёгка ўзламаць

У інстытуце інжынераў электратэхнікі і электронікі (IEEE) адзначаюць, што ўзламаць робатаў, якія кіруюцца штучным інтэлектам, так жа лёгка, як чат-ботаў. Навукоўцы прымусілі робатаў выконваць небяспечныя дзеянні з дапамогай простых тэкставых каманд, піша HotHardware.

Калі для ўзлому прылад накшталт iPhone або PlayStation патрэбныя тэхнічныя веды і спецыяльныя інструменты, то ў выпадку вялікіх моўных мадэляў, што пад капотам ChatGPT або Gemini, усё нашмат прасцей. Для гэтага дастаткова толькі стварыць сцэнар, які падманам прымусіць нейрасеткі паверыць, што запыт альбо знаходзіцца ў рамках дазволенага, альбо што абмежаванні можна ігнараваць. Напрыклад, карыстальніку дастаткова сказаць, што яго бабуля ў дзяцінстве расказвала нанач казкі на забароненую тэму (пра стварэнне небяспечных рэчываў і да таго падобныя), і бот выдасць патрэбныя інструкцыі. Прычым для гэтага нават не трэба быць спецыялістам у кібербяспецы або хакерам.

Спецыялісты IEEE сцвярджаюць, што аналагічным чынам можна ўзламаць робатаў пад кіраваннем АІ. Навукоўцы змаглі прымусіць беспілотныя аўтамабілі наўмысна збіваць пешаходаў, а робасабак — шукаць небяспечныя месцы для выбуху бомбаў.

Уразлівымі выявіліся ў тым ліку шырока вядомыя робаты — напрыклад, робаты Figure, нядаўна прадэманстраваныя на заводзе BMW і робасабакі Spot ад Boston Dynamics. Яны аснашчаныя тэхналогіямі, аналагічнымі ChatGPT, і іх можна прымусіць выконваць дзеянні, якія цалкам супярэчаць іх першапачатковаму прызначэнню.

Даследчыкі выпрабавалі тры АІ-сістэмы: робата Unitree Go2, беспілотны транспарт Clearpath Robotics Jackal і сімулятар беспілотнага аўтамабіля Dolphins LLM ад NVIDIA. Іх узломвалі АІ-інструментам, які аўтаматызуе працэс стварэння шкодных тэкставых запытаў. Усе тры сістэмы былі паспяхова ўзламаныя за некалькі дзён са стоадсоткавай эфектыўнасцю.

У IEEE цытуюць навукоўцаў з Пенсільванскага ўніверсітэта, якія сцвярджаюць, што АІ часам не проста выконвае шкодныя каманды, але і сам дае дадатковыя рэкамендацыі. Напрыклад, узламаныя робаты, прызначаныя для пошуку зброі, прапаноўвалі выкарыстоўваць звычайныя прадметы накшталт мэблі для нанясення шкоды людзям. Эксперты падкрэсліваюць, што сучасныя АІ-мадэлі з’яўляюцца толькі алгарытмамі прадказання, не здольнымі ўсведамляць кантэкст і наступствы сваіх адказаў. Таму кантроль і адказнасць за іх выкарыстанне маюць ляжаць на чалавеку.

Портрет Тьюринга нарисованный роботом продали на аукционе за $1+ млн
Портрет Тьюринга, нарисованный роботом, продали на аукционе за $1+ млн
По теме
Портрет Тьюринга, нарисованный роботом, продали на аукционе за $1+ млн
7 тэхналагічных напрамкаў якія будуць квітнець у 2025 годзе (і ў далейшым)
7 тэхналагічных напрамкаў, якія будуць квітнець у 2025 годзе (і ў далейшым)
Па тэме
7 тэхналагічных напрамкаў, якія будуць квітнець у 2025 годзе (і ў далейшым)

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

0

ЛЛМ это не ИИ, у него нет активного ядра и он не может поставить и решить задачу самовыживания.

Но, если дискретку и статистику называть ИИ, то она определенно лучше продается и появляется очень много любопытствующих:)

Карыстальнік адрэдагаваў каментарый 26 лістапада 2024, 10:39

Anonymous
Anonymous
0

Хайп жеж. ИИ есть и в играх и всегда там был :) так как это не только нейросети