OpenAI не выканала абяцання па запуску інструмента для кантролю кантэнту
Кампанія OpenAI не змагла своечасова выпусціць абяцаны інструмент Media Manager, які дазволіў бы аўтарам кантэнту кантраляваць, як іх працы выкарыстоўваюцца для навучання АІ. Гэты інструмент меўся стаць адказам на ўсё большую крытыку і судовыя пазовы, звязаныя з парушэннем аўтарскіх правоў.
Кампанія OpenAI не змагла своечасова выпусціць абяцаны інструмент Media Manager, які дазволіў бы аўтарам кантэнту кантраляваць, як іх працы выкарыстоўваюцца для навучання АІ. Гэты інструмент меўся стаць адказам на ўсё большую крытыку і судовыя пазовы, звязаныя з парушэннем аўтарскіх правоў.
Паводле слоў крыніц у кампаніі, анансаваны ў маі мінулага года Media Manager задумваўся як інструмент, які дазваляе аўтарам пазначаць свае перавагі і забараняць навучанне мадэляў АІ на сваім кантэнце. Меркавалася, што інструмент зможа ідэнтыфікаваць абаронены аўтарскім правам тэкст, малюнкі, аўдыя і відэа, адлюстроўваючы перавагі аўтараў «па многіх крыніцах».
Таксама, лічаць крыніцы, Media Manager меўся абараніць OpenAI ад магчымых юрыдычных праблем, звязаных з інтэлектуальнай уласнасцю. Аднак кампанія прапусціла вызначаны ёю ж тэрмін запуску інструмента «да 2025 года» і не дала ніякіх абнаўленняў аб яго прагрэсе.
Распрацоўка Media Manager, мяркуючы з усяго, не была прыярытэтам унутры OpenAI. Адзін з былых супрацоўнікаў кампаніі заявіў, што не памятае, каб хтосьці працаваў над гэтым інструментам. Сябра юрыдычнай каманды, які займаўся Media Manager, перайшоў на пазіцыю кансультанта. Эксперты таксама выказваюць сумневы ў тым, што Media Manager зможа вырашыць усе праблемы, звязаныя з выкарыстаннем АІ і інтэлектуальнай уласнасцю.
На думку спецыялістаў, нават буйныя платформы, такія як YouTube і TikTok, маюць цяжкасці з ідэнтыфікацыяй кантэнту ў вялікіх маштабах. Акрамя таго, некаторыя спецыялісты лічаць, што Media Manager можа перакласці цяжар кантролю за навучаннем АІ на стваральнікаў кантэнту. Сістэмы адмовы могуць таксама не ўлічваць трансфармацыі кантэнту: напрыклад, памяншэнне памеру выявы або яе абрэзка.
Цяпер OpenAI прапаноўвае аўтарам некалькі спосабаў адмовы ад навучання АІ, уключаючы форму для выдалення работ з будучых набораў даных і блакаванне вэб-сканавальных ботаў. Аднак гэтыя метады былі раскрытыкаваныя як неэфектыўныя і няпоўныя, паколькі адсутнічаюць спецыяльныя механізмы адмовы для пісьмовых работ, відэа або аўдыязапісаў. Форма для адмовы ад выяў патрабуе загрузкі копіі кожнай выявы, што з’яўляецца цяжкім працэсам.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.