Італія абвінаваціла OpenAI у парушэнні законаў ЕС аб канфідэнцыйнасці
Італьянскі орган па абароне даных DPA пасля шматмесячнага расследавання абвінаваціў кампанію ў парушэнні закона аб прыватнасці ЕС.
Італьянскі орган па абароне даных DPA пасля шматмесячнага расследавання абвінаваціў кампанію ў парушэнні закона аб прыватнасці ЕС.
Італьянскі орган па абароне даных DPA пасля шматмесячнага расследавання абвінаваціў кампанію ў парушэнні закона аб прыватнасці ЕС.
У мінулым годзе італьянскі рэгулятар ужо выказваў занепакоенасць з нагоды захавання OpenAI агульнага рэгламенту абароны даных (GDPR). Гэта прывяло да часовага прыпынення працы ChatGPT на еўрапейскім рынку. DPA падкрэсліў, што дагэтуль адсутнічае адпаведная прававая аснова для збору і апрацоўкі персанальных даных з мэтай навучання алгарытмаў чат-ботаў.
OpenAI змагла хутка аднавіць працу ChatGPT у Італіі пасля ліквідацыі шэрагу парушэнняў, названых DPA. Тым не менш італьянскія ўлады працягнулі расследаванне і прыйшлі да высновы, што чат-бот парушае заканадаўства ЕС. Пакуль спіс парушэнняў не апублікаваны, але галоўнай прэтэнзіяй можа быць сам прынцып апрацоўкі персанальных даных для навучання АІ-мадэляў.
Для навучання ChatGPT здабывае масу даных з агульнадаступнага інтэрнэту, уключаючы персанальныя даныя карыстальнікаў. Але для апрацоўкі даных грамадзян ЕС патрабуецца прававая аснова, пазначаная ў GDPR. Шэсць магчымых прававых падстаў для збору даных не маюць дачынення да працы АІ-сістэм.
Адзіная падстава, на якую можа разлічваць OpenAI, — гэта «законныя інтарэсы» зборшчыка даных. Але ў такім выпадку ўладальнік даных мае права выстаўляць пярэчанні і патрабаваць спынення апрацоўкі сваёй персанальнай інфармацыі. Тэарэтычна кожны жыхар ЕС можа запатрабаваць выключыць і знішчыць свае даныя, сабраныя мадэллю.
Юрысты мяркуюць, што ў выніку кампанія не зможа скарыстацца гэтай прававой падставай, паколькі яе будзе складана даказаць. Раней Вярхоўны суд ЕС прызнаў «законныя інтарэсы» неадпаведнай падставай для Meta пры адсочванні і прафіляванні карыстальнікаў у мэтах таргетавання рэкламы ў сацсетках.
OpenAI плануе знізіць рэгулятарныя рызыкі, адкрыўшы асобную арганізацыю ў Ірландыі, якая мае стаць пастаўшчыком паслуг кампаніі ў ЕС. Такім чынам філіял атрымае ацэнку адпаведнасці патрабаванням GDPR ад ірландскай камісіі па абароне даных і будзе дзейнічаць праз механізм «адзінага акна» рэгулявання, пазбегнуўшы нагляду з боку органаў кожнай краіны — сябра ЕС.
Тым не менш стварэнне філіяла не спыніць ужо адкрытых расследаванняў супраць кампаніі. Нядаўна падобную справу адкрыў орган па абароне даных у Польшчы. Таксама італьянскі DPA паведаміў, што еўрапейскія рэгулятары стварылі працоўную групу пры Еўрапейскай радзе па абароне даных, каб каардынаваць нагляд за ChatGPT.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
Как они себе это вообще представляют?