Пользователь Reddit обнаружил код алгоритма Apple для проверки детского порно в iOS 14.3
Пользователь обнаружил, что код алгоритма есть уже на всех устройствах с iOS 14.3 и даже Linux, хотя компания обещала включить систему только в iOS 15.
Пользователь обнаружил, что код алгоритма есть уже на всех устройствах с iOS 14.3 и даже Linux, хотя компания обещала включить систему только в iOS 15.
Юзер под ником AsuharietYgvar опубликовал код алгоритма NeuralHash, который используется для проверки iCloud на детскую порнографию. Ее следы удалось обнаружить на iOS 14.3, пользователь провел реверс-инжиниринг кода и выгрузил результаты на GitHub.
Тесты показывают, что система преодолевает изменение размеров и сжатие изображений. Однако ее можно обмануть, если обрезать исходную картинку или изменить ее ориентацию. Ранее Apple заявила, что алгоритм срабатывает только при полном сходстве с базой данных изображений, на которых запечатлено жестокое обращение с детьми.
Алгоритм не был заявлен на iOS 14.3. NeuralHash скрыт, но после погружения в скрытые API пользователю удалось обнаружить код алгоритма и воссоздать его на языке Python. Apple заявила, что будет проверять все выгружаемые в iCloud фотографии на соответствие снимков с жестоким обращением с несовершеннолетними.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.