Блогер создал самый токсичный и расистский искусственный интеллект

Видеоблогер Янник Килчер создал на основе контента с форума 4chan токсичный искусственный интеллект.

2 комментария

По данным The Verge, ИИ-модель зовут GPT-4chan. Она научилась не только подбирать слова, которые используют юзеры в одной из веток форума, но также общий тон, который, по словам создателя ИИ, включает «оскорбления, нигилизм и троллинг».

После того, как Килчер запустил ИИ-модель, пользователям потребовалось два дня, чтобы понять, что что-то не так. По словам блогера, участники 4chan заметили только одного из 15 тысяч запущенных им ботов. Сам Килчер воспринимает эксперимент как шутку, а не какое-то исследование. В дальнейшем он хочет сосредоточиться на более позитивном проекте.

Искусственный интеллект определяет здоровье коралловых рифов по их «песням»
По теме
Искусственный интеллект определяет здоровье коралловых рифов по их «песням»
Искусственный интеллект впервые разгадал кроссворд быстрее человека
По теме
Искусственный интеллект впервые разгадал кроссворд быстрее человека
ЮАР первой в мире выдала патент искусственному интеллекту
По теме
ЮАР первой в мире выдала патент искусственному интеллекту

Читать на dev.by