Anthropic пачне навучаць ШІ на вашых чатах па змаўчанні
Кампанія абвясціла пра сур’ёзныя змены ў палітыцы апрацоўкі карыстальніцкіх дадзеных: да 28 верасня ўсе карыстальнікі Claude павінны выбраць — пагадзіцца на выкарыстанне сваіх чатаў і кодавых сесій для навучання мадэляў ці адмовіцца ад гэтага.
Кампанія абвясціла пра сур’ёзныя змены ў палітыцы апрацоўкі карыстальніцкіх дадзеных: да 28 верасня ўсе карыстальнікі Claude павінны выбраць — пагадзіцца на выкарыстанне сваіх чатаў і кодавых сесій для навучання мадэляў ці адмовіцца ад гэтага.
Раней Anthropic не выкарыстоўвала перапіскі са спажывецкіх сэрвісаў для трэніроўкі ШІ. Цяпер жа дадзеныя будуць захоўвацца да пяці гадоў і выкарыстоўвацца для паляпшэння сістэм, калі карыстальнік не адключыць гэтую функцыю. Да абнаўлення перапіскі выдаляліся на працягу 30 дзён (ці максімум двух гадоў пры парушэнні правілаў).
Новыя правілы закранаюць падпіскі Claude Free, Pro і Max, уключаючы Claude Code, але не распаўсюджваюцца на карпаратыўныя прадукты: Claude Gov, Claude for Work, Claude for Education і API-доступ.
Новыя карыстальнікі павінны выбраць налады пры рэгістрацыі. Існуючым карыстальнікам з’явіцца ўсплывальнае акно з кнопкай «Прыняць» і маленькім пераключальнікам дазволу на навучанне — па змаўчанні ён уключаны. Тыя, хто націснуць «Прыняць», аўтаматычна пагаджаюцца на перадачу дадзеных.
Anthropic сцвярджае, што выкарыстанне перапісак дапаможа «павысіць дакладнасць выяўлення шкоднага кантэнту» і «палепшыць навыкі Claude ў аналізе, кодзінгу і разважаннях». Аднак эксперты адзначаюць, што кампанія, як і яе канкурэнты OpenAI і Google, перш за ўсё мае патрэбу ў рэальных карыстальніцкіх дадзеных для захавання канкурэнтаздольнасці.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.