Support us

Чатбот Microsoft больше не говорит о своих чувствах и просто обрывает разговор

Судя по всему, Microsoft добавила новые ограничения в свой чатбот, пишет Bloomberg. При упоминании чувств или кодового имени нового Bing, которое он сболтнул одному из пользователей, чатбот теперь просто прекращает диалог.

2 комментария
Чатбот Microsoft больше не говорит о своих чувствах и просто обрывает разговор

Судя по всему, Microsoft добавила новые ограничения в свой чатбот, пишет Bloomberg. При упоминании чувств или кодового имени нового Bing, которое он сболтнул одному из пользователей, чатбот теперь просто прекращает диалог.

Во время общения с журналисткой издания чатбот написал, что рад помочь ей, а в одном из вариантов следующего вопроса сам предложил спросить: «Каково тебе быть поисковым движком?» Когда журналистка нажала на подсказку, Bing сказал, что не хочет продолжать разговор, что он учится, и попросил понимания и терпения.

Журналистка спросила, обидела ли она чем-то бота, но тот ничего не ответил — вернее, выдал несколько пустых ответов.

В другой беседе бот ушёл от ответа, когда его спросили о более ранней версии. Когда журналистка спросила, может ли обращаться к Bing как к Sydney, тот заявил, что ему «нечего рассказать о Sydney», и поспешно ретировался: «Этот разговор закончен. До свидания».

Microsoft ограничила использование чатбота чтобы не сходил с ума
Microsoft ограничила использование чатбота, чтобы не сходил с ума
По теме
Microsoft ограничила использование чатбота, чтобы не сходил с ума

В Microsoft отметили, что корректируют бота по мере поступления фидбэка от пользователей и исправляют возникающие проблемы. Компания стала вводить ограничения для Bing на прошлой неделе после того, как во время затяжных сессий он начинал странно вести себя — например, угрожал, грубил и сравнивал пользователей с Гитлером, признавался в любви и говорил, что хочет стать человеком. Длительность сессий ограничили пятью вопросами, а число вопросов в день — пятьюдесятью. Вчера лимиты подняли до 6 вопросов за сессию и 60 сессий в день, а в дальнейшем последний параметр планируют повысить до 100.

Исследователи искусственного интеллекта подчёркивают, что боты вроде Bing не имеют чувств, но запрограммированы давать ответы, которые могут создавать такое впечатление. По их словам, у простых пользователей пока нет хорошего понимания ограничений и недостатков технологии.

Microsoft объяснила почему её чатбот путается и становится агрессивным
Microsoft объяснила, почему её чатбот путается и становится агрессивным
По теме
Microsoft объяснила, почему её чатбот путается и становится агрессивным
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
По теме
Bing шпионил за сотрудниками Microsoft и угрожал пользователю слить личные данные
Bing отчитал пользователя за то что сейчас 2022-й и сломался на вопросе обладает ли он сознанием
Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием
По теме
Bing отчитал пользователя за то, что сейчас 2022-й, и сломался на вопросе, обладает ли он сознанием
Читайте также
ИИ плохо работает на длинной дистанции — такого сотрудника уже уволили бы
ИИ плохо работает на длинной дистанции — такого сотрудника уже уволили бы
ИИ плохо работает на длинной дистанции — такого сотрудника уже уволили бы
Anthropic провела чистки среди российских пользователей Claude. Сотни айтишников навсегда потеряли всё, что собирали месяцами
Anthropic провела чистки среди российских пользователей Claude. Сотни айтишников навсегда потеряли всё, что собирали месяцами
Anthropic провела чистки среди российских пользователей Claude. Сотни айтишников навсегда потеряли всё, что собирали месяцами
4 комментария
OpenAI обновила базовую модель ChatGPT — в новинке меньше галлюцинаций, больше персонализации
OpenAI обновила базовую модель ChatGPT — в новинке меньше галлюцинаций, больше персонализации
OpenAI обновила базовую модель ChatGPT — в новинке меньше галлюцинаций, больше персонализации
Meta не знает, сколько ей в идеале нужно людей. Microsoft говорит, что «штат уменьшится» в ближайшие кварталы
Meta не знает, сколько ей в идеале нужно людей. Microsoft говорит, что «штат уменьшится» в ближайшие кварталы
Meta не знает, сколько ей в идеале нужно людей. Microsoft говорит, что «штат уменьшится» в ближайшие кварталы

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

0

Ну они в принципе только обрывать и гробить и умеют.

Виндовс
MSN
Скайп
Свой-же офис
github
чатботов

Наверняка ещё чего-то упустил

А, почтовик свой был у них какой-то там.

0

О ещё вспомнил

embedded windows у них был или как его, windows mobile