Microsoft патлумачыла, чаму яе чатбот блытаецца і робіцца агрэсіўным
Крыху больш за тыдзень таму Microsoft адкрыла карыстальнікам доступ да свайго новага чатбота на базе прасунутай версіі ChatGPT. Цяпер яго тэсціруюць прыкладна ў 170 краінах. Карыстальнікі заўважылі, што чатбот можа дзіўна рэагаваць на некаторыя запыты: адмаўляцца выконваць іх, упадаць у дэпрэсію, спрачацца і нават быць агрэсіўным.
Крыху больш за тыдзень таму Microsoft адкрыла карыстальнікам доступ да свайго новага чатбота на базе прасунутай версіі ChatGPT. Цяпер яго тэсціруюць прыкладна ў 170 краінах. Карыстальнікі заўважылі, што чатбот можа дзіўна рэагаваць на некаторыя запыты: адмаўляцца выконваць іх, упадаць у дэпрэсію, спрачацца і нават быць агрэсіўным.
Кампанія не чакала, што аўдыторыя стане настолькі інтэнсіўна выкарыстоўваць новы Bing для забавы і ў цэлым для пазнання свету. У працэсе распрацоўшчыкі выявілі, што падчас задоўгага ўзаемадзеяння — ад 15 пытанняў — чатбот можа пачынаць паўтарацца, даваць нерэлевантныя адказы або праяўляць непажаданыя эмоцыі.
На думку Microsoft, гэта можа быць звязана з тым, што калі сесія зацягваецца, нейрасетка можа блытацца, на якое пытанне адказваць. Кампанія кажа, што па працягласці некаторыя сесіі дасягалі 2 гадзін. Вырашыць праблему плануюць даданнем інструмента для ачысткі кантэксту і пачатку дыялогу нанова.
Bing адчытаў карыстальніка за тое, што цяпер 2022-і, і зламаўся на пытанні, ці валодае ён свядомасцю
Таксама часам мадэль спрабуе адказваць і разважаць у тым тоне, у якім яе просяць адказваць, тлумачыць Microsoft, і стыль адказаў на выхадзе можа атрымлівацца не такім, як задумвалі стваральнікі. Кампанія кажа, што гэта нетыповы сцэнар, і, каб даладзіць нейрасетку, трэба добра пастарацца. Таму большасць юзераў з такім паводзінамі чатбота не сутыкнуцца, але распрацоўшчыкі будуць думаць, як даць юзерам магчымасць лепш кантраляваць стыль зносін чатбота.
Microsoft дадала, што працуе над выпраўленнем знойдзеных карыстальнікамі багаў — напрыклад, павольнай загрузкі, бітых спасылак і памылак фарматавання. Таксама кампанія будзе разглядаць прапановы карыстальнікаў наконт новых функцый, такіх як рэзерваванне квіткоў, адпраўка імэйлаў і шэрынг адказаў.
Оправдываются, почему речь бота похожа не человеческую не смотря на то, что это была сама цель? Просто пусть на выходе добывят побольше правил (rule-based predictions) в этом же и смысл цензуры, не так ли!
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
Оправдываются, почему речь бота похожа не человеческую не смотря на то, что это была сама цель? Просто пусть на выходе добывят побольше правил (rule-based predictions) в этом же и смысл цензуры, не так ли!