Black Friday x2 на devby: платите за одно размещение — получаете два. До 30.11
Support us

Microsoft ограничила использование чатбота, чтобы не сходил с ума

Пользователи нового чатбота Bing заметили, что иногда его «заносит» — он начинает придумывать всякое, проявлять эмоции и агрессию, признаваться в любви и хотеть стать человеком. Разработчики пояснили, что странности могут появляться во время слишком длительных сессий от 15 запросов.

1 комментарий
Microsoft ограничила использование чатбота, чтобы не сходил с ума

Пользователи нового чатбота Bing заметили, что иногда его «заносит» — он начинает придумывать всякое, проявлять эмоции и агрессию, признаваться в любви и хотеть стать человеком. Разработчики пояснили, что странности могут появляться во время слишком длительных сессий от 15 запросов.

Чтобы решить проблему, Microsoft решила ограничить число запросов к боту пятью за одну сессию — вернее, это число обменов репликами, включающих запрос и ответ бота. А всего в сутки каждый пользователь теперь будет ограничен 50 обменами.

По словам компании, большинство пользователей укладывается именно 5 взаимодействий. Лишь у 1% юзеров сессии затягиваются на 50+ запросов. Теперь же после получения пятого ответа от бота пользователя попросят начать диалог заново. В конце каждой сессии контекст будет удаляться, чтобы модель не начинала путаться.

Bing отчитал пользователя за то что сейчас 2022-й и сломался на вопросе обладает ли он сознанием
Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием
По теме
Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
По теме
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
Microsoft объяснила почему её чатбот путается и становится агрессивным
Microsoft объяснила, почему её чатбот путается и становится агрессивным
По теме
Microsoft объяснила, почему её чатбот путается и становится агрессивным
Читайте также
CEO Nvidia требует от сотрудников использовать ИИ «везде, где только можно»
CEO Nvidia требует от сотрудников использовать ИИ «везде, где только можно»
CEO Nvidia требует от сотрудников использовать ИИ «везде, где только можно»
Китайское вайбкодинговое приложение взорвало интернет, упало, набрало миллион пользователей быстрее ChatGPT
Китайское вайбкодинговое приложение взорвало интернет, упало, набрало миллион пользователей быстрее ChatGPT
Китайское вайбкодинговое приложение взорвало интернет, упало, набрало миллион пользователей быстрее ChatGPT
Anthropic выпустила «лучшую модель для кодинга в мире»
Anthropic выпустила «лучшую модель для кодинга в мире»
Anthropic выпустила «лучшую модель для кодинга в мире»
Рынок не поверил Хуангу: акции техногигантов обвалились после финансового отчёта Nvidia
Рынок не поверил Хуангу: акции техногигантов обвалились после финансового отчёта Nvidia
Рынок не поверил Хуангу: акции техногигантов обвалились после финансового отчёта Nvidia
1 комментарий

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

0

для того, чтобы показать тебе рекламу, достаточно пяти сообщений на тему, все что болше—не выгодно хозяину