Что Apple делает с теми, у кого находит фотографии детского порно

Против врача-онколога из США выдвинуто обвинение в хранении в iCloud детской порнографии. Экспертами официально подтверждено что примерно две тысячи фотографий и видео на аккаунте обвиняемого квалифицируются именно так. Врачом занимаются правоохранительные органы, последствия для него будут ужасными. Но как его смогли вычислить? Ведь сканирование фотографий в iCloud начнется только осенью, и только если Apple не отложит его запуск на более поздний срок. Неужели нас обманули? А что если и сам аттракцион неслыханной честности был, всего-лишь, попыткой избежать скандала?

Apple уже проверяет своих пользователей на хранение и использование запрещённого контента

Врач-онколог попал в поле зрения правоохранительных органов когда он разместил один из файлов с детской порнографией из своей коллекции в социальной сети. Обыск аккаунта обвиняемого производился строго по закону. Эксперты “вручную” просмотрели фото- и видеотеку подозреваемого. Наоборот, до сих пор iCloud оставался, по словам Эрика Фридмана, директора Apple по борьбе с мошенничеством, “величайшей платформой для распространения детского порно”. Фридман сообщил это в одном из внутренних чатов Apple, в 2020 году. Текст этого чата, с пометкой “только для судьи”, был приобщен к документам по делу Epic Games против Apple.

Почему iCloud – самый безопасный облачный сервис даже с проверкой фото

А откуда об этом мог узнать Эрик Фридман, если Apple не сканировала данные пользователей? Об этом спросили у самого Эрика Фридмана. Он сказал что его слова вырваны из контекста. Он сказал это не про iCloud, а про iMessage. Еще он сказал что Facebook справляется с этим безобразием лучше, так как в отличие от Facebook у Apple в приоритете защита конфиденциальности данных. Фраза про “величайшую платформу” была эмоциональным преувеличением, вполне допустимым при обсуждении рабочих вопросов в узком кругу.

Apple проверяет фото на iPhone

В Купертино рассказали о том, что уже следят за пользователями, как ни в чём не бывало

Второй раз за свою 45-летнюю историю Apple публично призналась в том, в чем ни в коем случае не следовало признаваться. Летом 1996 года компания заявила что не в состоянии разработать современную операционную системы. Если бы не нестандартные, иногда даже не совсем законные, меры предпринятые Стивом Джобсом летом 1997, уже осенью того года Apple перестала бы существовать. Второй раз она сделала это в августе 2021 года. Открыто заявив что будет сканировать фотографии размещенные в iCloud для выявления детской порнографии. Чем все закончится на этот раз – вопрос. Проблемы уже есть. Копаться в данных пользователей Apple будет с минимальным ущербом для конфиденциальности. С запредельно низкой вероятностью ложного срабатывания.

В Apple объяснили, как скрыть запрещённые фото от проверки

Чтобы пользователь был уличен в незаконном хранении фотографий и видео с детским порно, в его аккаунте должно быть обнаружено “примерно 30” файлов с порнографией. В этом случае Apple отдаст своего клиента в руки правосудия. Вероятность ложного обвинения – один из 30 триллионов. Это нарушение конституции США? Но её уже давно нарушают Facebook, Microsoft и все другие провайдеры облачных сервисов. Они не сообщают об этом, но даже не пытаются это скрывать. Apple не могла остаться в стороне от противодействия насилию над детьми. Тем более, как недавно выяснилось, кое в чем она уже отступила от своих принципов. В iCloud Mail почтовые сообщения сканируются с 2019 года на предмет выявления детской порнографии. Аккаунты нарушителей блокируются. iCloud Mail не место для подобных дискуссий. Алгоритмы выявления детского порно – не новодел. Это проверенная технология.

Опасно ли проверять фото

Учёные говорят, что сканирование фото — это порочная практика. Это мы знаем и без них

В статье опубликованной в Washington Post, два исследователя из Принстонского университета предостерегли Apple от совершения ошибки. Доцент Джонатан Майер и аспирант Анунай Кулшреста, два года назад, создали систему аналогичную той, которую описывает Apple. Система крайне уязвима, опасна для конфиденциальности данных пользователей и для их безопасности. Поскольку её очень просто перепрофилировать на выявление любых других данных и превратить её в эффективный инструмент слежки для авторитарных правительств. Кроме того, на своем опыте ученые из Принстонского университета убедились что в подобных системах нередки ложные срабатывания, и что они крайне уязвимы для злоумышленников.

Почему я против, чтобы Apple проверяла мои фотографии

Пострадают невинные пользователи, Apple должна остановиться. На самом деле все не так. Системы обнаружения у Apple и у Принстонского университета далеко не идентичные. Система Apple хорошо защищена и полностью контролируется Apple. Хэши в ней получены от нескольких организаций обеспечивающих безопасность детей в разных юрисдикциях. Кроме того, на финальном этапе проверки результаты проверяются людьми. Перепрофилирования этой системы на любые другие области деятельности Apple не допустит. Крейг об этом не говорил, тогда это еще было тайной Apple, но теперь об этом знают все: алгоритмы системы обнаружения детской порнографии эксплуатировались в течение двух лет. Эксплуатировались успешно.

Безопасность AppleКомпания AppleФото на iPhone
Лучший комментарий  
Чтобы оставить комментарий