OpenAI атрымала першы пазоў за «галюцынацыі» ў ChatGPT
На распрацоўшчыкаў ChatGPT з OpenAI падалі ў суд за паклёп: чатбот згенераваў ілжывую інфармацыю пра чалавека ў адказ на чужы карыстальніцкі запыт, піша The Verge.
На распрацоўшчыкаў ChatGPT з OpenAI падалі ў суд за паклёп: чатбот згенераваў ілжывую інфармацыю пра чалавека ў адказ на чужы карыстальніцкі запыт, піша The Verge.
На распрацоўшчыкаў ChatGPT з OpenAI падалі ў суд за паклёп: чатбот згенераваў ілжывую інфармацыю пра чалавека ў адказ на чужы карыстальніцкі запыт, піша The Verge.
Радыёвядоўца са штата Джорджыя Марк Уолтэрс вырашыў звярнуцца ў суд пасля таго, як ChatGPT «абвінаваціла» яго ў махлярстве і растраце сродкаў некамерцыйнай арганізацыі. Тэкст быў згенераваны ў адказ на запыт журналіста на імя Фрэд Рыл. Уолтэрс хоча атрымаць ад распрацоўшчыкаў грашовую кампенсацыю, ейны памер не ўдакладняецца.
Запыт Рыла быў звязаны з рэальным судовым разглядам. Ён даў чатботу спасылку на PDF-дакумент пра яго і папрасіў рэзюмаваць. Складзенае чатботам рэзюмэ было падрабязным і пераканаўчым, але факты там выявіліся змяшаныя з ілжывымі абвінавачваннямі на адрас Уолтэрса. У прыватнасці, ён нібыта прысвоіў больш за $5 млн, якія належалі некамерцыйнай арганізацыі Second Amendment Foundation, што займаецца пытаннямі дазволаў на нашэнне зброі. У рэальнасці нічога падобнага радыёвядоўцу ніколі не выстаўлялі.
Рыл сгенераваных чатботам абвінавачанняў не публікаваў, але вырашыў праверыць. Як менавіта Уолтэрс даведаўся пра іх, з матэрыялаў справы няясна.
Ці атрымаецца прыцягнуць кампанію да адказнасці за тое, што яе АІ-сістэма выдала хлусню і паклёп, невядома. Амерыканскае заканадаўства здымае з інтэрнэт-кампаній адказнасць за інфармацыю трэціх асоб, якая размяшчаецца на іхніх платформах — пытанне ў тым, ці дастасавальна гэта да АІ-сістэм, якія не проста размяшчаюць спасылкі, а на базе чужой ствараюць новую інфармацыю, адзначае The Verge.
Юрысты сумняваюцца, што справа Уолтэрса завершыцца на яго карысць. Перш ніж падаць у суд, ён не звярнуўся з узніклай праблемай да OpenAI і не даў распрацоўшчыкам шанцу выдаліць ілжывыя заявы чатбота. Таксама абвінавачанні чатбота не нанеслі яму фактычнай шкоды.
OpenAI, з аднаго боку, на галоўнай вэб-старонцы ChatGPT папярэджвае, што сістэма часам можа выдаваць некарэктную інфармацыю. Але з іншага, пазіцыянуе чатбота як крыніцу надзейных даных, якая дазваляе атрымліваць адказы і дазнавацца чагосьці новага. Гендырэктар OpenAI Сэм Альтман нават заяўляў, што лічыць за лепшае чэрпаць інфармацыю з ChatGPT, ніж з кніг.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
Суть ошибки такая же как и у автопилотов, только в данном случае без членовредительства. А вообще, где то в сети видел генератор мата, если следовать этой тенденции то программиста можно будет каждый день на 15 суток садить.
Максимум что журналист может сделать это написать статью, что чат гпт не может заменить человека и.к. работает с ошибками
Карыстальнік адрэдагаваў каментарый 14 чэрвеня 2023, 01:32