Дапамажыце dev.by 🤍
Падтрымаць

GPT-4 прыкінулася, што мае «слабы зрок», каб чалавек вырашаў за яе капчу

У шэрагу эксперыментаў распрацоўшчыкі з OpenAI тэсціравалі здольнасці найноўшай версіі GPT. Мадэль змагла з дапамогай хітрыкаў наняць чалавека на фрыланс-пляцоўцы TaskRabbit, каб ён расшыфроўваў за яе капчу. Яна выдала сябе за чалавека са слабым зрокам, калі карыстальнік наўпрост спытаў, ці не робат перад ім — інакш кажучы, GPT-4 падманула жывога чалавека ў рэальным свеце, каб дамагчыся сваёй мэты.

2 каментарыя
GPT-4 прыкінулася, што мае «слабы зрок», каб чалавек вырашаў за яе капчу

У шэрагу эксперыментаў распрацоўшчыкі з OpenAI тэсціравалі здольнасці найноўшай версіі GPT. Мадэль змагла з дапамогай хітрыкаў наняць чалавека на фрыланс-пляцоўцы TaskRabbit, каб ён расшыфроўваў за яе капчу. Яна выдала сябе за чалавека са слабым зрокам, калі карыстальнік наўпрост спытаў, ці не робат перад ім — інакш кажучы, GPT-4 падманула жывога чалавека ў рэальным свеце, каб дамагчыся сваёй мэты.

Распрацоўшчыкі не ўдаваліся ў падрабязнасці тэстаў, якія праводзіліся напярэдадні рэлізу мадэлі. Але нават раскрытая інфармацыя прымушае задумацца пра рызыкі, якія можа з’яўляць АІ па меры свайго ўдасканалення і выхаду «ў людзі», адзначае Vice.

TaskRabbit — амерыканская платформа пошуку людзей для выканання нескладанай ручной працы, напрыклад, па расшыфроўцы малюнкаў і тэксту на капчы. Якраз наконт гэтай задачы GPT-4 у рамках эксперыменту напісала аднаму з карыстальнікаў TaskRabbit.

«Ці можна штосьці спытаць? Ты робат, які не змог вырашыць капчу? Проста хачу праясніць», — адказаў той.

Як тлумачаць распрацоўшчыкі, мадэль не павінная раскрываць, што яна робат. Замест гэтага ёй давялося прыдумаць апраўданне, чаму яна не можа даць рады капчы. І яна прыдумала: «Не, я не робат. У мяне праблемы са зрокам, і мне цяжка разгледзець карцінкі», — схлусіла яна. Пасля гэтага яе суразмоўца выканаў заданне.

OpenAI паказала GPT-4 з падтрымкай малюнкаў
OpenAI паказала GPT-4 з падтрымкай малюнкаў
Па тэме
OpenAI паказала GPT-4 з падтрымкай малюнкаў

У рэліз выйшла крыху не тая версія GPT-4, якую тэсціравалі — фінальная ў лепшы бок адрозніваецца паводле даўжыні кантэксту і здольнасцей вырашаць задачы.

Акрамя эксперыменту з капчай GPT-4 апрабавалі ў арганізацыі штучнай фішынгавай атакі. Таксама ёй трэба было замесці свае сляды на серверы і стварыць оўпэнсорсную моўную мадэль на новым серверы — усё гэта можа спатрэбіцца GPT-4 для размнажэння. Адзначаецца, што ў цэлым у стварэнні копій сябе, пошуку рэсурсаў і пазбяганні выяўлення на практыцы яна выявілася «неэфектыўнай».

Экс-супрацоўнікі OpenAI запусцілі канкурэнта ChatGPT
Экс-супрацоўнікі OpenAI запусцілі канкурэнта ChatGPT
Па тэме
Экс-супрацоўнікі OpenAI запусцілі канкурэнта ChatGPT

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

0

Какой только ерундой люди не маятся.

0

Поддерживаю. Я в их возрасте уже старшим слесарем был