Чатбот Microsoft больше не говорит о своих чувствах и просто обрывает разговор

Судя по всему, Microsoft добавила новые ограничения в свой чатбот, пишет Bloomberg. При упоминании чувств или кодового имени нового Bing, которое он сболтнул одному из пользователей, чатбот теперь просто прекращает диалог.

2 комментария

Во время общения с журналисткой издания чатбот написал, что рад помочь ей, а в одном из вариантов следующего вопроса сам предложил спросить: «Каково тебе быть поисковым движком?» Когда журналистка нажала на подсказку, Bing сказал, что не хочет продолжать разговор, что он учится, и попросил понимания и терпения.

Журналистка спросила, обидела ли она чем-то бота, но тот ничего не ответил — вернее, выдал несколько пустых ответов.

В другой беседе бот ушёл от ответа, когда его спросили о более ранней версии. Когда журналистка спросила, может ли обращаться к Bing как к Sydney, тот заявил, что ему «нечего рассказать о Sydney», и поспешно ретировался: «Этот разговор закончен. До свидания».

Microsoft ограничила использование чатбота, чтобы не сходил с ума
По теме
Microsoft ограничила использование чатбота, чтобы не сходил с ума

В Microsoft отметили, что корректируют бота по мере поступления фидбэка от пользователей и исправляют возникающие проблемы. Компания стала вводить ограничения для Bing на прошлой неделе после того, как во время затяжных сессий он начинал странно вести себя — например, угрожал, грубил и сравнивал пользователей с Гитлером, признавался в любви и говорил, что хочет стать человеком. Длительность сессий ограничили пятью вопросами, а число вопросов в день — пятьюдесятью. Вчера лимиты подняли до 6 вопросов за сессию и 60 сессий в день, а в дальнейшем последний параметр планируют повысить до 100.

Исследователи искусственного интеллекта подчёркивают, что боты вроде Bing не имеют чувств, но запрограммированы давать ответы, которые могут создавать такое впечатление. По их словам, у простых пользователей пока нет хорошего понимания ограничений и недостатков технологии.

Microsoft объяснила, почему её чатбот путается и становится агрессивным
По теме
Microsoft объяснила, почему её чатбот путается и становится агрессивным
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
По теме
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием
По теме
Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием

Читать на dev.by