Дапамажыце dev.by 🤍
Падтрымаць

Страхоўшчыкі не хочуць працаваць з OpenAI і Anthropic — рызыкі ШІ занадта высокія

Распрацоўшчыкі разглядаюць магчымасць выкарыстання сродкаў інвестараў для пакрыцця патэнцыйных шматмільярдных судовых іскаў, звязаных з парушэннем аўтарскіх правоў пры навучанні сістэм штучнага інтэлекту.

Пакінуць каментарый
Страхоўшчыкі не хочуць працаваць з OpenAI і Anthropic — рызыкі ШІ занадта высокія

Распрацоўшчыкі разглядаюць магчымасць выкарыстання сродкаў інвестараў для пакрыцця патэнцыйных шматмільярдных судовых іскаў, звязаных з парушэннем аўтарскіх правоў пры навучанні сістэм штучнага інтэлекту.

Пра гэта паведамляе Financial Times са спасылкай на крыніцы, знаёмыя з сітуацыяй. У апошнія месяцы супраць буйных тэхналагічных кампаній, уключаючы OpenAI, Microsoft і Meta, былі пададзены іскі ад праваўладальнікаў, якія абвінавачваюць іх у несанкцыянаваным выкарыстанні матэрыялаў для навучання ШІ.

Агульныя прэтэнзіі ацэньваюцца ў мільярды даляраў, і страхавы рынак пакуль не гатовы прапанаваць кампаніям адэкватнае пакрыццё падобных рызык. Паводле дадзеных выдання, OpenAI змагла атрымаць страхавое пакрыццё на суму да $300 мільёнаў праз брокера Aon.

Крыніцы сцвярджаюць, што гэтая сума значна меншая за неабходную для абароны ад магчымых страт, звязаных з серыяй буйных судовых іскаў. Кампанія разглядае варыянт «самастрахавання» — стварэнне спецыяльнага фонду з інвестарскіх сродкаў або асобнай страхавой структуры, прызначанай для кіравання падобнымі рызыкамі.

Anthropic, у сваю чаргу, ужо выкарыстоўвае ўнутраныя рэсурсы для фінансавання папярэдняга ўрэгулявання іску на суму $1,5 мільярда, пададзенага групай аўтараў. Федэральны суд Каліфорніі ў верасні папярэдне ўхваліў гэтае пагадненне.

Паводле інфармацыі СМІ, страхоўшчыкі асцерагаюцца «ядзерных вердыктаў» — беспрэцэдэнтна буйных кампенсацый, якія могуць быць прысуджаны супраць кампаній, што працуюць з перадавымі тэхналогіямі. OpenAI і Anthropic пакуль не пракаментавалі паведамленні аб сваіх планах.

OpenAI паказала ўнутраныя ШІ-сэрвісы — і выклікала паніку на рынку софту
OpenAI паказала ўнутраныя ШІ-сэрвісы — і выклікала паніку на рынку софту
Па тэме
OpenAI паказала ўнутраныя ШІ-сэрвісы — і выклікала паніку на рынку софту
OpenAI запусціла канструктар ШІ-агентаў і зрабіла Codex даступным для ўсіх
OpenAI запусціла канструктар ШІ-агентаў і зрабіла Codex даступным для ўсіх
Па тэме
OpenAI запусціла канструктар ШІ-агентаў і зрабіла Codex даступным для ўсіх
«Лепшы ў свеце ШІ для кодынгу» ад Anthropic працуе аўтаномна да 30 гадзін
«Лепшы ў свеце ШІ для кодынгу» ад Anthropic працуе аўтаномна да 30 гадзін
Па тэме
«Лепшы ў свеце ШІ для кодынгу» ад Anthropic працуе аўтаномна да 30 гадзін
Чытайце таксама
«Яна выратавала мне жыццё»: OpenAI адключае GPT-4o — карыстальнікі ўзбунтаваліся
«Яна выратавала мне жыццё»: OpenAI адключае GPT-4o — карыстальнікі ўзбунтаваліся
«Яна выратавала мне жыццё»: OpenAI адключае GPT-4o — карыстальнікі ўзбунтаваліся
Кампаніі рызыкуюць стаць «машынамі для выгарання» з-за ШІ — даследаванне
Кампаніі рызыкуюць стаць «машынамі для выгарання» з-за ШІ — даследаванне
Кампаніі рызыкуюць стаць «машынамі для выгарання» з-за ШІ — даследаванне
«Мір у небяспецы»: кіраўнік каманды бяспекі Anthropic звольніўся і пакінуў загадкавы ліст
«Мір у небяспецы»: кіраўнік каманды бяспекі Anthropic звольніўся і пакінуў загадкавы ліст
«Мір у небяспецы»: кіраўнік каманды бяспекі Anthropic звольніўся і пакінуў загадкавы ліст
Стваральнік OpenClaw не фанат агульнага ШІ. Кажа, будучыня за спецыялізаваным
Стваральнік OpenClaw не фанат агульнага ШІ. Кажа, будучыня за спецыялізаваным
Стваральнік OpenClaw не фанат агульнага ШІ. Кажа, будучыня за спецыялізаваным

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.