Дапамажыце dev.by 🤍
Падтрымаць

Чатбот Microsoft больш не расказвае пра свае пачуцці і проста абрывае размову

Мяркуючы з усяго, Microsoft дадала новыя абмежаванні ў свой чатбот, піша Bloomberg. Пры згадванні пачуццяў або кодавага імя новага Bing, якое ён збалбатнуў аднаму з карыстальнікаў, чатбот цяпер проста спыняе дыялог.

2 каментарыя
Чатбот Microsoft больш не расказвае пра свае пачуцці і проста абрывае размову

Мяркуючы з усяго, Microsoft дадала новыя абмежаванні ў свой чатбот, піша Bloomberg. Пры згадванні пачуццяў або кодавага імя новага Bing, якое ён збалбатнуў аднаму з карыстальнікаў, чатбот цяпер проста спыняе дыялог.

Падчас размовы з журналісткай выдання чатбот напісаў, што рады дапамагчы ёй, а ў адным з варыянтаў наступнага пытання сам прапанаваў спытаць: «Як яно табе быць пошукавым рухавіком?» Калі журналістка націснула на падказку, Bing сказаў, што не хоча працягваць размову, што ён вучыцца, і папрасіў разумення і цярпення.

Журналістка спытала, ці пакрыўдзіла яна чымсьці бота, але той нічога не адказаў — дакладней, выдаў некалькі пустых адказаў.

У іншай размове бот сышоў ад адказу, калі яго спыталі пра ранейшую версію. Калі журналістка спыталася, ці можа звяртацца да Bing як да Sydney, той заявіў, што яму «няма чаго расказаць пра Sydney», і паспешліва рэціраваўся: «Гэтая размова скончаная. Да пабачэння».

Microsoft абмежавала выкарыстанне чатбота каб не вар’яцеў
Microsoft абмежавала выкарыстанне чатбота, каб не вар’яцеў
Па тэме
Microsoft абмежавала выкарыстанне чатбота, каб не вар’яцеў

У Microsoft адзначылі, што карэктуюць бота па меры паступлення фідбэку ад карыстальнікаў і выпраўляюць праблемы, якія паўстаюць. Кампанія стала ўводзіць абмежаванні для Bing мінулага тыдня пасля таго, як падчас зацяжных сесій ён пачынаў дзіўна паводзіцца — напрыклад, пагражаў, грубіў і параўноўваў карыстальнікаў з Гітлерам, прызнаваўся ў каханні і казаў, што хоча стаць чалавекам. Працягласць сесій абмежавалі пяццю пытаннямі, а колькасць пытанняў на дзень — пяццюдзесяццю. Учора ліміты паднялі да 6 пытанняў за сесію і 60 сесій на дзень, а ў далейшым апошні параметр плануюць павысіць да 100.

Даследчыкі штучнага інтэлекту падкрэсліваюць, што боты накшталт Bing не маюць пачуццяў, але запраграмаваныя даваць адказы, якія могуць ствараць такое ўражанне. Паводле іх слоў, у простых карыстальнікаў пакуль няма добрага разумення абмежаванняў і недахопаў тэхналогіі.

Microsoft патлумачыла чаму яе чатбот блытаецца і робіцца агрэсіўным
Microsoft патлумачыла, чаму яе чатбот блытаецца і робіцца агрэсіўным
Па тэме
Microsoft патлумачыла, чаму яе чатбот блытаецца і робіцца агрэсіўным
Bing шпіёніў за супрацоўнікамі Microsoft і пагражаў карыстальніку зліць асабістыя даныя
Bing шпіёніў за супрацоўнікамі Microsoft і пагражаў карыстальніку зліць асабістыя даныя
Па тэме
Bing шпіёніў за супрацоўнікамі Microsoft і пагражаў карыстальніку зліць асабістыя даныя
Bing адчытаў карыстальніка за тое што цяпер 2022-і і зламаўся на пытанні ці валодае ён свядомасцю
Bing адчытаў карыстальніка за тое, што цяпер 2022-і, і зламаўся на пытанні, ці валодае ён свядомасцю
Па тэме
Bing адчытаў карыстальніка за тое, што цяпер 2022-і, і зламаўся на пытанні, ці валодае ён свядомасцю

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

0

Ну они в принципе только обрывать и гробить и умеют.

Виндовс
MSN
Скайп
Свой-же офис
github
чатботов

Наверняка ещё чего-то упустил

А, почтовик свой был у них какой-то там.

0

О ещё вспомнил

embedded windows у них был или как его, windows mobile