«Неприемлемо»: Facebook извиняется за алгоритм, который перепутал афроамериканцев с приматами

AI-алгоритм Facebook маркировал темнокожих мужчин на одном из видео как «приматов». Компания начала разбираться, как так получилось, чтобы предотвратить подобные «неприемлемые ошибки» в будущем, пишет New York Times.

3 комментария

Ролик, который стал причиной казуса, был опубликован 27 июня 2020 года в аккаунте британского таблоида Daily Mail. На нём было запечатлено несколько афроамериканцев, у которых завязалась перебранка с белыми гражданами и полицейскими. Посмотревшим его пользователям автоматизированная рекомендательная система стала предлагать «больше видео о приматах», хотя никакого отношения к обезьянам ролик не имел.

Facebook отключила виновный алгоритм, как только узнала о проблеме. Соцсеть признала, что искусственный интеллект не идеален, и хотя она постоянно совершенствует свои алгоритмы, ей ещё есть, куда расти. Компания добавила, что проводит расследование и принесла извинения всем, кто увидел «оскорбительную рекомендацию».

Некоторые интернет-пользователи язвительно заметили, что не видят проблемы, поскольку по систематике человек относится к отряду приматов.

Это не первый инцидент, который демонстрирует, что AI хуже справляется с распознаванием людей с небелым цветом кожи. В 2015 году публично каялась Google, чьё приложение для фотографий по ошибке пометило темнокожих людей на снимках как «горилл». А Facebook ещё с прошлого года проверяет свои алгоритмы на расовый перекос.


Читать на dev.by