Дейтинг-приложение Bumble выложило исходный код функции обнаружения нежелательных нюдсов
Дейтинг-приложение решило бороться с нежелательными изображениями наготы с помощью искусственного интеллекта.
Дейтинг-приложение решило бороться с нежелательными изображениями наготы с помощью искусственного интеллекта.
С 2019 года сервис использует машинное обучение для защиты пользователей от непристойных фотографий. Функция Private Detector анализирует изображения, чтобы определить, не содержат ли они неприемлемый контент. Она была разработана в первую очередь для блокировки фотографий с обнаженной натурой, но также может отмечать селфи без рубашки или изображения оружия. При обнаружении запрещенного контента приложение размывает фото и позволяет пользователю решить, хочет ли он просмотреть изображение, заблокировать или сообщить сервису о человеке, который это отправил.
Недавно компания выложила открытый исходный код функции на GitHub. «Мы надеемся, что эта функция будет принята более широким техническим сообществом, поскольку мы работаем в тандеме, чтобы сделать интернет более безопасным местом», — заявили в компании. Исследование 2016 года показало, что 57% женщин испытывали домогательства в приложениях для знакомств. В 2020 году исследование в Великобритании выявило, что 76% девочек в возрасте от 12 до 18 лет получали изображения обнаженной натуры без запроса.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.