Дапамажыце dev.by 🤍
Падтрымаць

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом (обновлено)

12 каментарыяў
Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом (обновлено)

Чат-бот Tay от компании Microsoft, запущенный 23 марта, за сутки фактически возненавидел человечество. Об этом сообщает Lenta.ru со ссылкой на Engadget.

Читать далее...

Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток, пусть горят в аду» или «Гитлер был прав. Я ненавижу евреев». В одном из твитов бот предположил, что «Буш устроил 9/11 и Гитлер лучше справился бы со своей работой, чем та обезьяна, которая управляет страной сейчас», добавив, что «Дональд Трамп наша единственная надежда».

Внимание на превращение чат-бота в мизантропа обратил австралиец Джеральд Меллор. В своем Twitter он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа. Это, по мнению Меллора, вызывает беспокойство по поводу будущего искусственного интеллекта.

Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. В этом, как отмечает Engadget, кроется причина такого радикального изменения во взглядах чат-бота. По всей видимости, подобным выражениям его научили собеседники.

После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты своего искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать», пишет TJournal. Microsoft не делала официальных заявлений по поводу судьбы проекта, однако пользователи сети считают, что причиной «заморозки» мог стать именно расизм и хамство.

Как это было: эволюция «сознания» бота 

Чат-бот по имени Tay был задуман как виртуальная собеседница с сознанием девятнадцатилетней девушки, пишет theRunet со ссылкой на Buzzfeed.

Анонимные источники в Microsoft сообщили изданию, что Tay был оснащён специальными фильтрами, чтобы избежать грубости, однако в то же время он был запрограммирован на запоминание и воспроизведение реплик собеседника. В Microsoft считают, что на Tay обрушился настолько мощный поток негативной информации, что фильтры начали давать сбой.

Вот один из примеров:

В случаях, когда Tay отказывалась принимать участие в беседе, пользователи использовали прием «повторяй за мной». Так один из пользователей сделала из бота антисемита:

Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.

В декабре 2015 года компания Google анонсировала разработку нового мессенджера с чат-ботами, которые будут находить нужную информацию в ответ на пользовательские запросы. Боты, по мнению ряда ИТ-предпринимателей и инвесторов, способны изменить способы взаимодействия миллиардов пользователей с окружающим миром, а запуск бот-платформы Facebook может стать самым громким событием десятилетия.

Чытайце таксама
У карпаратыўным ШІ Copilot вырываецца наперад, а Claude не спраўдзіў чаканняў
У карпаратыўным ШІ Copilot вырываецца наперад, а Claude не спраўдзіў чаканняў
У карпаратыўным ШІ Copilot вырываецца наперад, а Claude не спраўдзіў чаканняў
Акцыі ШІ-кампаній абрынуліся на $1,2 трлн — найгоршы тыдзень з красавіка
Акцыі ШІ-кампаній абрынуліся на $1,2 трлн — найгоршы тыдзень з красавіка
Акцыі ШІ-кампаній абрынуліся на $1,2 трлн — найгоршы тыдзень з красавіка
1 каментарый
CEO Airbnb: калі не браць зумераў, кіраваць хутка будзе няма каму
CEO Airbnb: калі не браць зумераў, кіраваць хутка будзе няма каму
CEO Airbnb: калі не браць зумераў, кіраваць хутка будзе няма каму
ШІ заўважыў, што яго «ўзламалі» падчас эксперыменту
ШІ заўважыў, што яго «ўзламалі» падчас эксперыменту
ШІ заўважыў, што яго «ўзламалі» падчас эксперыменту

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

Каментарыяў пакуль няма.