Реклама в Telegram-каналах DzikPic и dev.by теперь дешевле. Узнать подробности 👨🏻‍💻
Support us

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом (обновлено)

Оставить комментарий
Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом (обновлено)

Чат-бот Tay от компании Microsoft, запущенный 23 марта, за сутки фактически возненавидел человечество. Об этом сообщает Lenta.ru со ссылкой на Engadget.

Читать далее...

Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток, пусть горят в аду» или «Гитлер был прав. Я ненавижу евреев». В одном из твитов бот предположил, что «Буш устроил 9/11 и Гитлер лучше справился бы со своей работой, чем та обезьяна, которая управляет страной сейчас», добавив, что «Дональд Трамп наша единственная надежда».

Внимание на превращение чат-бота в мизантропа обратил австралиец Джеральд Меллор. В своем Twitter он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа. Это, по мнению Меллора, вызывает беспокойство по поводу будущего искусственного интеллекта.

Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. В этом, как отмечает Engadget, кроется причина такого радикального изменения во взглядах чат-бота. По всей видимости, подобным выражениям его научили собеседники.

После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты своего искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать», пишет TJournal. Microsoft не делала официальных заявлений по поводу судьбы проекта, однако пользователи сети считают, что причиной «заморозки» мог стать именно расизм и хамство.

Как это было: эволюция «сознания» бота 

Чат-бот по имени Tay был задуман как виртуальная собеседница с сознанием девятнадцатилетней девушки, пишет theRunet со ссылкой на Buzzfeed.

Анонимные источники в Microsoft сообщили изданию, что Tay был оснащён специальными фильтрами, чтобы избежать грубости, однако в то же время он был запрограммирован на запоминание и воспроизведение реплик собеседника. В Microsoft считают, что на Tay обрушился настолько мощный поток негативной информации, что фильтры начали давать сбой.

Вот один из примеров:

В случаях, когда Tay отказывалась принимать участие в беседе, пользователи использовали прием «повторяй за мной». Так один из пользователей сделала из бота антисемита:

Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.

В декабре 2015 года компания Google анонсировала разработку нового мессенджера с чат-ботами, которые будут находить нужную информацию в ответ на пользовательские запросы. Боты, по мнению ряда ИТ-предпринимателей и инвесторов, способны изменить способы взаимодействия миллиардов пользователей с окружающим миром, а запуск бот-платформы Facebook может стать самым громким событием десятилетия.

Новый рекламный формат в наших телеграм-каналах.

Купить 500 символов за $150

Читайте также
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
3 комментария
В России создали бесплатного конкурента генератора картинок DALL-E 2
В России создали бесплатного конкурента генератора картинок DALL-E 2
В России создали бесплатного конкурента генератора картинок DALL-E 2
2 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.