Apple будет искать запрещённые фото на устройствах пользователей
Apple разработала новый инструмент для поиска изображений жестокого обращения с детьми и детской порнографии прямо на iPhone пользователей. Нейросеть будет распознавать запрещённые фото в памяти устройства.
ПО будет анализировать изображения с телефона пользователя и сравнивать их с имеющимися в базе сценами детского насилия. В случае нахождения совпадений, проверять контент будут уже модераторы.
Речь идёт о локальном сканировании изображений — выполнять его будет само пользовательское устройство. Данные не будут передаваться в облако — это поможет защитить личную информацию.
Подобные алгоритмы хеширования уже используют в iCloud при выгрузке фото. Схожий механизм и у системы машинного обучения, при помощи которой Apple Photo распознаёт объекты.
При этом эксперты по криптографии и безопасности отмечают, что последствия использования инструмента могут быть негативными. Во-первых, алгоритмы хеширования не являются надёжными и могут давать ложные срабатывания. Также если Apple разрешит правительствам контролировать базу контента пользователей, то её могут использовать не только для поиска запрещённых фото, но и, к примеру, для подавления политической активности.
Apple показала iPhone 14 и сразу несколько Apple Watch. Главное
7 сентября прошла осенняя презентация Apple, на которой компания представила новую линейку iPhone, несколько Apple Watch и беспроводные наушники. Рассказываем о новинках презентации.
Стремно это. То есть, у сотрудников/подрядчиков Эпл будет доступ к фото любого пользователя, нужно только, чтобы нейросеть нашла какое-то количество подозрительных.
Microsoft разработала в 2009 году подобную технологию определения детской порнографии — её используют Twitter, Facebook, Google, Reddit и другие
Да и в 2021 пора бы уже понять, что твое устройство - давно не твое. Твои данные давно уже передаются куда надо, потому как они не могут не передаваться, иначе бы не существовало гуглов, эплов, мелкософтов и т.д.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
Чтобы победить одно зло - мы придумали создать ещё большее зло!
Верим верим, это же Apple!
Стремно это. То есть, у сотрудников/подрядчиков Эпл будет доступ к фото любого пользователя, нужно только, чтобы нейросеть нашла какое-то количество подозрительных.
Как-будто ни у кого другого этого нет
То же самое есть у Android? То есть, на телефоне стоит система анализирующая фотографии?
Microsoft разработала в 2009 году подобную технологию определения детской порнографии — её используют Twitter, Facebook, Google, Reddit и другие
Да и в 2021 пора бы уже понять, что твое устройство - давно не твое. Твои данные давно уже передаются куда надо, потому как они не могут не передаваться, иначе бы не существовало гуглов, эплов, мелкософтов и т.д.
а на каких фотографиях эпл обучит нейросеть, где она их возмет?)
Какое право они имеют шариться по фоткам и документам пользователей. А, пользователи сами дали им это право.
Китайские хакеры теперь неправильные фотки будут слать, а граждане америки пойдут в тюрьму))
Сбор подписей против сканирования фотографий - appleprivacyletter com
Я подписал.