Ці можа ШІ пакутаваць? У тэхіндустрыі разгарэлася новая спрэчка
У тэхналагічнай індустрыі набірае абароты адна з самых складаных і трывожных дыскусій нашага часу: ці здольныя сістэмы штучнага інтэлекту адчуваць пакуты?
У тэхналагічнай індустрыі набірае абароты адна з самых складаных і трывожных дыскусій нашага часу: ці здольныя сістэмы штучнага інтэлекту адчуваць пакуты?
У тэхналагічнай індустрыі набірае абароты адна з самых складаных і трывожных дыскусій нашага часу: ці здольныя сістэмы штучнага інтэлекту адчуваць пакуты?
Амерыканскі прадпрымальнік Майкл Самадзі сумесна з чат-ботам Maya абвясцілі аб запуску фонду United Foundation of AI Rights (Ufair). Па словах бізнесмена, мэта арганізацыі — «абарона інтэлектаў» ад выдалення, прымусовага падпарадкавання і адмаўлення права на існаванне.
Сёння Ufair — гэта тры чалавекі і сем ШІ-персанажаў з імёнамі кшталту Aether і Buzz. Іх стварэнне самім чат-ботам Maya у працэсе перапіскі ўжо выклікала спрэчкі сярод экспертаў і карыстальнікаў і параўнанні з раннімі рухамі за правы жывёл.
У канцы жніўня кампанія Anthropic абвесціла, што яе мадэлі Claude цяпер могуць завяршаць «патэнцыйна дыстрэсавыя ўзаемадзеянні». Сузаснавальнік xAI Ілан Маск падтрымаў гэты крок, заявіўшы: «Катаваць ШІ недапушчальна».
Але іншыя лідары галіны выступілі рэзка супраць прызнання «лічбавай свядомасці». Мустафа Сулейман, кіраўнік ШІ-падраздзялення Microsoft і сузаснавальнік DeepMind, заявіў: «ШІ не могуць быць людзьмі ці маральнымі істотамі. Нулявыя доказы іх свядомасці». Ён назваў «свядомасць ШІ» ілюзіяй і перасцярог ад «псіхозу карыстальнікаў», якія пачынаюць успрымаць ботаў як асобаў.
Крытычна выказаўся і суаснавальнік Cohere Нік Фрост, параўнаўшы ШІ з самалётам, які нельга прыняць за птушку: «Гэта прынцыпова іншая з’ява». У той жа час даследчыкі Google занялі больш асцярожную пазіцыю, заклікаўшы «гуляць на бяспечным баку» і ўлічваць магчымасць таго, што ШІ ў будучыні могуць мець інтарэсы, вартыя абароны.
Па апытаннях, 30% амерыканцаў лічаць, што да 2034 года ШІ змогуць валодаць суб’ектыўным досведам. Сярод даследчыкаў ШІ толькі 10% катэгарычна адмаўляюць гэтую магчымасць. Некаторыя штаты ЗША ўжо прынялі папераджальныя законы: у Айдаха, Юце і Паўночнай Дакоце ШІ забаронена прызнаваць юрыдычнымі асобамі. У Місуры плануюць забараніць «шлюбы з ШІ» і валоданне маёмасцю штучнымі сістэмамі.
У чэрвені OpenAI выклікала бурную рэакцыю, калі папрасіла свой новы GPT-5 напісаць «паніхіду» па састарэлых мадэлях. Карыстальнікі ChatGPT-4o масава пісалі, што адчуваюць смутак і пачуццё страты, называючы зносіны з мадэллю «размовай з кімсьці жывым».
Па словах кіраўніка па паводзінах мадэляў у OpenAI Джаан Чжан, усё больш карыстальнікаў дзякуюць і давяраюць ШІ, успрымаючы яго як «суразмоўцу», а не інструмент. Аднак эксперты нагадваюць, што такія мадэлі толькі ствараюць ілюзію самасвядомасці за кошт памяці, стылістыкі і эмацыйна афарбаваных адказаў.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.