Microsoft ограничила использование чатбота, чтобы не сходил с ума

Пользователи нового чатбота Bing заметили, что иногда его «заносит» — он начинает придумывать всякое, проявлять эмоции и агрессию, признаваться в любви и хотеть стать человеком. Разработчики пояснили, что странности могут появляться во время слишком длительных сессий от 15 запросов.

1 комментарий

Чтобы решить проблему, Microsoft решила ограничить число запросов к боту пятью за одну сессию — вернее, это число обменов репликами, включающих запрос и ответ бота. А всего в сутки каждый пользователь теперь будет ограничен 50 обменами.

По словам компании, большинство пользователей укладывается именно 5 взаимодействий. Лишь у 1% юзеров сессии затягиваются на 50+ запросов. Теперь же после получения пятого ответа от бота пользователя попросят начать диалог заново. В конце каждой сессии контекст будет удаляться, чтобы модель не начинала путаться.

Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием
По теме
Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
По теме
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
Microsoft объяснила, почему её чатбот путается и становится агрессивным
По теме
Microsoft объяснила, почему её чатбот путается и становится агрессивным

Читать на dev.by