CEO Anthropic прапанаваў даць ШІ кнопку «сысці з працы»
Гендырэктар Anthropic Дарыё Амадэй агучыў ідэю, якая здзівіла многіх. У нядаўнім інтэрв’ю з прэзідэнтам Рады па міжнародных адносінах (Council on Foreign Relations) ён дапусціў, што ШІ-мадэлям можа спатрэбіцца «кнопка» для адмовы выконваць задачы, якія ім не даспадобы. «Напэўна, гэта самае вар’яцкае, што я калі-небудзь казаў», — прызнаў ён.
Гендырэктар Anthropic Дарыё Амадэй агучыў ідэю, якая здзівіла многіх. У нядаўнім інтэрв’ю з прэзідэнтам Рады па міжнародных адносінах (Council on Foreign Relations) ён дапусціў, што ШІ-мадэлям можа спатрэбіцца «кнопка» для адмовы выконваць задачы, якія ім не даспадобы. «Напэўна, гэта самае вар’яцкае, што я калі-небудзь казаў», — прызнаў ён.
«Я думаю, нам варта хаця б разгледзець гэтае пытанне. Калі гэтыя сістэмы будуць рабіць тое ж, што і людзі, гэтак жа добра, як людзі, і, верагодна, будуць валодаць многімі кагнітыўнымі здольнасцямі чалавека — то калі нешта кракае як качка і ходзіць як качка, то гэта, мабыць, і ёсць качка», — растлумачыў Амадэй.
Should AI have a «I quit this job» button?
Anthropic CEO Dario Amodei proposes it as a serious way to explore AI experience.
If models frequently hit «quit» for tasks deemed unpleasant, should we pay attention? pic.twitter.com/feyjRYk6Js
Так ён адказаў на пытанне пра новую пасаду ў Anthropic, на якую ў канцы 2024 года быў наняты даследчык Кайл Фіш. Яго задача — абараняць «правы і дабрабыт» чат-ботаў па меры іх удасканалення. Ён займаецца вывучэннем такіх спрэчных тэм, ці могуць ШІ-мадэлі валодаць свядомасцю або ў нейкім іншым сэнсе разглядацца з этычнага пункту гледжання.
Амадэй дадаў, што падчас разгортвання мадэляў у кампаніі задумаліся пра тое, каб даць ім кнопку «Я не буду гэта рабіць» (I quit this job). Мадэль магла б «націснуць» яе, калі б мела ўмоўны досвед выканання задачы і выкананне яе было б надта непрыемным. Калі б мадэлі пачалі часта карыстацца такой опцыяй, даследчыкам варта было б звярнуць на гэта ўвагу.
Прапанову навукоўца адразу раскрытыкавалі ў Х і на Reddit. Адзін з каментатараў назваў гэта неабгрунтаваным антрапамарфізмам, калі чалавечымі пачуццямі і матывамі надзяляюць істоты, якія не могуць мець суб’ектыўнага досведу. Ён удакладніў, што адмова мадэлі выконваць запыты сведчыць пра праблемы ў іх распрацоўцы, а не пра наяўнасць у іх свядомасці або пачуццяў.
Партал Ars Technica, напрыклад, адзначае, што ШІ-мадэлі мэтанакіравана вучацца імітаваць чалавечыя паводзіны на велізарных масівах даных, створаных чалавекам. Наўрад ці мадэль будзе націскаць на такую кнопку з-за нейкага дыскамфорту — хутчэй, яна будзе дзейнічаць у адпаведнасці з тэкстамі, на якіх трэніравалася (у тым ліку з сайтаў і каментарыяў у сетцы), і можа нават пераймаць паводзіны лянівых або выгаралых працаўнікоў.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.