Дапамажыце dev.by 🤍
Падтрымаць

Навукоўцы папярэджваюць: АІ-сістэмы, навучаныя на кантэнце, згенераваным іншымі АІ-сістэмамі, праз пару пакаленняў пачнуць генераваць смецце

У сеціве плодзіцца кантэнт, спароджаны штучным інтэлектам. Эксперты ў галіне машыннага навучання лічаць, што ў далейшым АІ-алгарытмы, якія трэніраваліся на ім, а не на аўтэнтычным матэрыяле, будуць выдаваць усё менш якасныя вынікі.

1 каментарый
Навукоўцы папярэджваюць: АІ-сістэмы, навучаныя на кантэнце, згенераваным іншымі АІ-сістэмамі, праз пару пакаленняў пачнуць генераваць смецце

У сеціве плодзіцца кантэнт, спароджаны штучным інтэлектам. Эксперты ў галіне машыннага навучання лічаць, што ў далейшым АІ-алгарытмы, якія трэніраваліся на ім, а не на аўтэнтычным матэрыяле, будуць выдаваць усё менш якасныя вынікі.

У маі брытанска-канадская група навукоўцаў апублікавала працу на тэму таго, што будзе, калі некалькі пакаленняў АІ-сістэм трэніраваць на кантэнце, згенераваным падобнымі да іх сістэмамі.

Адзін з суаўтараў даследавання — навуковец і прафесар Кембрыджскага ўніверсітэта Рос Андэрсан — адзначае, што тэкст будзе станавіцца смеццем. Напрыклад, у адным выпадку АІ-сістэма 9 пакалення, навучаная на матэрыяле пра сярэднявечную архітэктуру, выдавала штосьці невыразнае пра зайцоў. Да такой дэградацыі мадэляў (model collapse) схільныя і генератары выяў. 

Вялікія моўныя мадэлі накшталт тых, што ў аснове ChatGPT, трэніраваліся на велізарных масівах даных з інтэрнэту, якія да нядаўняга часу ў большасці сваёй былі створаны людзьмі. Але па меры распаўсюджвання АІ-інструментаў сеціва запаўняюць вынікі іх «працы» і трапляюць у трэніровачныя датасэты новых мадэляў.

«Крёстный отец ИИ»: чатботы глупее собак и котов и видеть в ИИ угрозу — абсурдно
«Крёстный отец ИИ»: чатботы глупее собак и котов, и видеть в ИИ угрозу — абсурдно
По теме
«Крёстный отец ИИ»: чатботы глупее собак и котов, и видеть в ИИ угрозу — абсурдно

Гэта значыць, што паступова іх якасць і дакладнасць будуць падаць, а верагоднасць памылак і бязглуздзіцы — узрастаць. Тым больш што АІ не ўмее адрозніваць праўду ад выдумкі і пачынае няправільна тлумачыць тое, што лічыць праўдзівым, кажуць навукоўцы.

Для прыкладу Андэрсан узяў Моцарта і яго менш знакамітага сучасніка, італьянскага кампазітара Антоніа Сальеры. Калі навучыць мадэль на працах Моцарта, то атрымаецца падобна, але без іскры таленту аўстрыйца — умоўна гэта Сальеры. Калі на музыцы Сальеры навучыць новую мадэль і так — яшчэ некалькі пакаленняў, то іх гучанне будзе ўсё больш аддаляцца ад арыгінала.

Паводле слоў навукоўцаў, праблема звязаная з успрыманнем АІ верагоднасці — з часам менш верагодныя падзеі з’яўляюцца ў выніках мадэляў усё радзей, і гэта абмяжоўвае тое, што АІ наступнага пакалення будзе лічыць верагодным.

OpenAI атрымала першы пазоў за «галюцынацыі» ў ChatGPT
OpenAI атрымала першы пазоў за «галюцынацыі» ў ChatGPT
Па тэме
OpenAI атрымала першы пазоў за «галюцынацыі» ў ChatGPT

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

0

Ну да, согласен. А перед этим заведут ещё блоги и инстаграмы, и уже там и будут генерировать мусор.