Італія абвінаваціла OpenAI у парушэнні законаў ЕС аб канфідэнцыйнасці
Італьянскі орган па абароне даных DPA пасля шматмесячнага расследавання абвінаваціў кампанію ў парушэнні закона аб прыватнасці ЕС.
У мінулым годзе італьянскі рэгулятар ужо выказваў занепакоенасць з нагоды захавання OpenAI агульнага рэгламенту абароны даных (GDPR). Гэта прывяло да часовага прыпынення працы ChatGPT на еўрапейскім рынку. DPA падкрэсліў, што дагэтуль адсутнічае адпаведная прававая аснова для збору і апрацоўкі персанальных даных з мэтай навучання алгарытмаў чат-ботаў.
OpenAI змагла хутка аднавіць працу ChatGPT у Італіі пасля ліквідацыі шэрагу парушэнняў, названых DPA. Тым не менш італьянскія ўлады працягнулі расследаванне і прыйшлі да высновы, што чат-бот парушае заканадаўства ЕС. Пакуль спіс парушэнняў не апублікаваны, але галоўнай прэтэнзіяй можа быць сам прынцып апрацоўкі персанальных даных для навучання АІ-мадэляў.
Для навучання ChatGPT здабывае масу даных з агульнадаступнага інтэрнэту, уключаючы персанальныя даныя карыстальнікаў. Але для апрацоўкі даных грамадзян ЕС патрабуецца прававая аснова, пазначаная ў GDPR. Шэсць магчымых прававых падстаў для збору даных не маюць дачынення да працы АІ-сістэм.
Адзіная падстава, на якую можа разлічваць OpenAI, — гэта «законныя інтарэсы» зборшчыка даных. Але ў такім выпадку ўладальнік даных мае права выстаўляць пярэчанні і патрабаваць спынення апрацоўкі сваёй персанальнай інфармацыі. Тэарэтычна кожны жыхар ЕС можа запатрабаваць выключыць і знішчыць свае даныя, сабраныя мадэллю.
Юрысты мяркуюць, што ў выніку кампанія не зможа скарыстацца гэтай прававой падставай, паколькі яе будзе складана даказаць. Раней Вярхоўны суд ЕС прызнаў «законныя інтарэсы» неадпаведнай падставай для Meta пры адсочванні і прафіляванні карыстальнікаў у мэтах таргетавання рэкламы ў сацсетках.
OpenAI плануе знізіць рэгулятарныя рызыкі, адкрыўшы асобную арганізацыю ў Ірландыі, якая мае стаць пастаўшчыком паслуг кампаніі ў ЕС. Такім чынам філіял атрымае ацэнку адпаведнасці патрабаванням GDPR ад ірландскай камісіі па абароне даных і будзе дзейнічаць праз механізм «адзінага акна» рэгулявання, пазбегнуўшы нагляду з боку органаў кожнай краіны — сябра ЕС.
Тым не менш стварэнне філіяла не спыніць ужо адкрытых расследаванняў супраць кампаніі. Нядаўна падобную справу адкрыў орган па абароне даных у Польшчы. Таксама італьянскі DPA паведаміў, што еўрапейскія рэгулятары стварылі працоўную групу пры Еўрапейскай радзе па абароне даных, каб каардынаваць нагляд за ChatGPT.
Читать на dev.by