Дапамажыце dev.by 🤍
Падтрымаць

Чат-бот от Microsoft снова «научился плохому»

Пакінуць каментарый
Чат-бот от Microsoft снова «научился плохому»

Спустя год после неудачного запуска чат-бота Tay, в течение суток перенявшего нацистские взгляды, Microsoft запустила новую разработку, названную Zo. И на этот раз к корректности бота также появились вопросы, сообщает Engadget со ссылкой на BuzzFeed.

Читать далее

Иллюстрация: Engadget

Несмотря на то, что Zo запрограммирован игнорировать политику и религию, иногда он отвечает на вопросы по этой теме, и делает это с помощью весьма сомнительных утверждений. К примеру, в одном случае чат-бот назвал Коран «очень жестоким» и неоднозначно высказался насчёт поимки Осамы бин Ладена.

Microsoft утверждает, что откорректировала поведение бота. Но если прошлый провал компания списала на координированные усилия группы пользователей Twitter, которым удалось «направить» воспитание чат-бота в нужное им русло, то в случае с Zo сомнительные утверждения не были спровоцированы.

Ключевая аудитория Zo — подростки, и на этот раз чат-бот функционирует в мессенджере Kik, обладающего средней по размерам пользовательской базой. Несмотря на потенциальную проблематичность некорректного бота в «подростковой среде», Microsoft готова взять на себя некоторые риски во имя достижения более масштабных целей.

Чытайце таксама
Боты абагналі людзей: ШІ стаў галоўнай крыніцай трафіку ў інтэрнэце
Боты абагналі людзей: ШІ стаў галоўнай крыніцай трафіку ў інтэрнэце
Боты абагналі людзей: ШІ стаў галоўнай крыніцай трафіку ў інтэрнэце
Meta кажа, што ЗША патрэбна паўмільёна электрыкаў для патрэб ШІ
Meta кажа, што ЗША патрэбна паўмільёна электрыкаў для патрэб ШІ
Meta кажа, што ЗША патрэбна паўмільёна электрыкаў для патрэб ШІ
Gemini навучыўся пераносіць дадзеныя з ChatGPT і Claude
Gemini навучыўся пераносіць дадзеныя з ChatGPT і Claude
Gemini навучыўся пераносіць дадзеныя з ChatGPT і Claude
Meta прымушае супрацоўнікаў выкарыстоўваць ШІ. Вось якія планкі
Meta прымушае супрацоўнікаў выкарыстоўваць ШІ. Вось якія планкі
Meta прымушае супрацоўнікаў выкарыстоўваць ШІ. Вось якія планкі

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

Каментарыяў пакуль няма.