Пользователь Reddit обнаружил код алгоритма Apple для проверки детского порно в iOS 14.3
Юзер под ником AsuharietYgvar опубликовал код алгоритма NeuralHash, который используется для проверки iCloud на детскую порнографию. Ее следы удалось обнаружить на iOS 14.3, пользователь провел реверс-инжиниринг кода и выгрузил результаты на GitHub.
Тесты показывают, что система преодолевает изменение размеров и сжатие изображений. Однако ее можно обмануть, если обрезать исходную картинку или изменить ее ориентацию. Ранее Apple заявила, что алгоритм срабатывает только при полном сходстве с базой данных изображений, на которых запечатлено жестокое обращение с детьми.
Алгоритм не был заявлен на iOS 14.3. NeuralHash скрыт, но после погружения в скрытые API пользователю удалось обнаружить код алгоритма и воссоздать его на языке Python. Apple заявила, что будет проверять все выгружаемые в iCloud фотографии на соответствие снимков с жестоким обращением с несовершеннолетними.
Читать на dev.by