200 инженеров в Варшаве обсуждают дыры в пайплайнах. Без вас?
Support us

Microsoft ограничила использование чатбота, чтобы не сходил с ума

Пользователи нового чатбота Bing заметили, что иногда его «заносит» — он начинает придумывать всякое, проявлять эмоции и агрессию, признаваться в любви и хотеть стать человеком. Разработчики пояснили, что странности могут появляться во время слишком длительных сессий от 15 запросов.

1 комментарий
Microsoft ограничила использование чатбота, чтобы не сходил с ума

Пользователи нового чатбота Bing заметили, что иногда его «заносит» — он начинает придумывать всякое, проявлять эмоции и агрессию, признаваться в любви и хотеть стать человеком. Разработчики пояснили, что странности могут появляться во время слишком длительных сессий от 15 запросов.

Чтобы решить проблему, Microsoft решила ограничить число запросов к боту пятью за одну сессию — вернее, это число обменов репликами, включающих запрос и ответ бота. А всего в сутки каждый пользователь теперь будет ограничен 50 обменами.

По словам компании, большинство пользователей укладывается именно 5 взаимодействий. Лишь у 1% юзеров сессии затягиваются на 50+ запросов. Теперь же после получения пятого ответа от бота пользователя попросят начать диалог заново. В конце каждой сессии контекст будет удаляться, чтобы модель не начинала путаться.

Bing отчитал пользователя за то что сейчас 2022-й и сломался на вопросе обладает ли он сознанием
Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием
По теме
Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
По теме
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
Microsoft объяснила почему её чатбот путается и становится агрессивным
Microsoft объяснила, почему её чатбот путается и становится агрессивным
По теме
Microsoft объяснила, почему её чатбот путается и становится агрессивным
Читайте также
В ИИ появилась новая «золотая» профессия: спрос на неё вырос на 800% за год
В ИИ появилась новая «золотая» профессия: спрос на неё вырос на 800% за год
В ИИ появилась новая «золотая» профессия: спрос на неё вырос на 800% за год
Microsoft расширяет штат, но теперь все кандидаты должны знать ИИ
Microsoft расширяет штат, но теперь все кандидаты должны знать ИИ
Microsoft расширяет штат, но теперь все кандидаты должны знать ИИ
В Австралии полиция учит ИИ понимать сленг преступников
В Австралии полиция учит ИИ понимать сленг преступников
В Австралии полиция учит ИИ понимать сленг преступников
Топы корпораций уверены в окупаемости ИИ, их подчинённые — не очень
Топы корпораций уверены в окупаемости ИИ, их подчинённые — не очень
Топы корпораций уверены в окупаемости ИИ, их подчинённые — не очень

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

0

для того, чтобы показать тебе рекламу, достаточно пяти сообщений на тему, все что болше—не выгодно хозяину