Microsoft объяснила, почему её чатбот путается и становится агрессивным
Чуть более недели назад Microsoft открыла пользователям доступ к своему новому чатботу на базе продвинутой версии ChatGPT. Сейчас его тестируют примерно в 170 странах. Пользователи заметили, что чатбот может странно реагировать на некоторые запросы: отказываться выполнять их, впадать в депрессию, спорить и даже быть агрессивным.
Компания не ожидала, что аудитория станет настолько интенсивно использовать новый Bing для развлечения и в целом для познания мира. В процессе разработчики обнаружили, что во время слишком долгого взаимодействия — от 15 вопросов — чатбот может начинать повторяться, давать нерелевантные ответы или проявлять нежелательные эмоции.
По мнению Microsoft, это может быть связано с тем, что когда сессия затягивается, нейросеть может путаться, на какой вопрос отвечать. Компания говорит, что по длительности некоторые сессии достигали 2 часов. Решить проблему планируют добавлением инструмента для очистки контекста и начала диалога заново.
Также иногда модель пытается отвечать и рассуждать в том тоне, в котором её просят отвечать, объясняет Microsoft, и стиль ответов на выходе может получаться не таким, как задумывали создатели. Компания говорит, что это нетипичный сценарий, и чтобы довести нейросеть, нужно сильно постараться. Поэтому большинство юзеров с таким поведением чатбота не столкнутся, но разработчики будут думать, как дать юзерам возможность лучше контролировать стиль общения чатбота.
Microsoft добавила, что работает над исправлением найденных пользователями багов — например, медленной загрузки, битых ссылок и ошибок форматирования. Также компания будет рассматривать предложения пользователей по новым функциям, таким как бронирование билетов, отправка емейлов и шеринг ответов.
Читать на dev.by