Мы запустили Dzik Pic Store. Заходи к нам в магазин за крутым мерчом ☃️
Support us

Microsoft ограничила использование чатбота, чтобы не сходил с ума

Пользователи нового чатбота Bing заметили, что иногда его «заносит» — он начинает придумывать всякое, проявлять эмоции и агрессию, признаваться в любви и хотеть стать человеком. Разработчики пояснили, что странности могут появляться во время слишком длительных сессий от 15 запросов.

1 комментарий
Microsoft ограничила использование чатбота, чтобы не сходил с ума

Пользователи нового чатбота Bing заметили, что иногда его «заносит» — он начинает придумывать всякое, проявлять эмоции и агрессию, признаваться в любви и хотеть стать человеком. Разработчики пояснили, что странности могут появляться во время слишком длительных сессий от 15 запросов.

Чтобы решить проблему, Microsoft решила ограничить число запросов к боту пятью за одну сессию — вернее, это число обменов репликами, включающих запрос и ответ бота. А всего в сутки каждый пользователь теперь будет ограничен 50 обменами.

По словам компании, большинство пользователей укладывается именно 5 взаимодействий. Лишь у 1% юзеров сессии затягиваются на 50+ запросов. Теперь же после получения пятого ответа от бота пользователя попросят начать диалог заново. В конце каждой сессии контекст будет удаляться, чтобы модель не начинала путаться.

Bing отчитал пользователя за то что сейчас 2022-й и сломался на вопросе обладает ли он сознанием
Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием
По теме
Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
По теме
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
Microsoft объяснила почему её чатбот путается и становится агрессивным
Microsoft объяснила, почему её чатбот путается и становится агрессивным
По теме
Microsoft объяснила, почему её чатбот путается и становится агрессивным
🎊 Dzik Pic Store открыт и готов принимать заказы!

Заходи к нам в магазин

Читайте также
СhatGPT не виноват: спад в уязвимых для ИИ профессиях начался раньше
СhatGPT не виноват: спад в уязвимых для ИИ профессиях начался раньше
СhatGPT не виноват: спад в уязвимых для ИИ профессиях начался раньше
ИИ не любит ленивых: рынок софта штормит из-за опасений инвесторов
ИИ не любит ленивых: рынок софта штормит из-за опасений инвесторов
ИИ не любит ленивых: рынок софта штормит из-за опасений инвесторов
Разработчик создал язык программирования с помощью Claude Code
Разработчик создал язык программирования с помощью Claude Code
Разработчик создал язык программирования с помощью Claude Code
2 комментария
Разработчик из Google создал интерактивную карту Нью-Йорка в стиле SimCity
Разработчик из Google создал интерактивную карту Нью-Йорка в стиле SimCity
Разработчик из Google создал интерактивную карту Нью-Йорка в стиле SimCity

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

0

для того, чтобы показать тебе рекламу, достаточно пяти сообщений на тему, все что болше—не выгодно хозяину