Apple согласилась не проверять ваши фото. Пока

Мы активно освещаем тему нового алгоритма Apple по обработке личных фотографий. За это время произошло много всего интересного: от анонса этой функции до оправданий Крейга Федериги и выхода целого FAQ от Apple, в котором были расписаны все нюансы этой технологии. В общем, чего только не было. Дождались: Apple отказалась от функций поиска детского порно в ваших фотографиях, отложив запуск. Кажется, обычные пользователи одержали небольшую победу в борьбе за конфиденциальность данных. Рассказываем, что случилось и победил ли здравый смысл на самом деле.

Кажется, Apple передумала копаться в ваших фотографиях. Или нет?

Зачем Apple проверять фото

Первый анонс нового алгоритма поиска материалов сексуального насилия над детьми под названием CSAM (Child Sexual Abuse Material) состоялся 5 августа 2021 года, вызвав мощную негативную реакцию в сети. Функции включали в себя поиск изображений сексуального насилия над детьми при помощи специального алгоритма. Алгоритм также способен блокировать потенциально неприемлемые сообщения, отправленные в iMessage.

Apple стоит вовсе отказаться от проверки фотографий

Позже компания пояснила, что обновление затронет только фотографии, загруженные в iCloud у подозреваемых в этом деянии. Компания открестилась от того, что найденный контент будет доступен ей, Национальному центру пропавших и эксплуатируемых детей (NCMEC) или полиции.

Apple отказалась проверять фото. Вот почему

Компания разъяснила, что решила приостановить запуск этой функции и отложить внедрение нового алгоритма после большого количества негативных отзывов пользователей. Apple заявляет, что планирует уделить больше времени разработке и консультациям по поводу внедрения нового алгоритма. Несмотря на первоначальные заявления о высокой точности работы технологии, компания планирует доработать ее и собрать больше информации, чтобы внести улучшения.

Новый алгоритм будет нагло рыться среди ваших фотографий. Конец конфиденциальности?

Связано это с тем, чтобы не злить пользователей и не делать из них подозреваемых — новая функция должна помочь защищать детей и ограждать их от опасности, а не отправлять невиновных пользователей за решетку. Точного срока, на сколько откладывается внедрение алгоритма, компания не указывает, но говорит, что будет улучшать его «в ближайшие месяцы». Это правильный ход, ведь речь идет не о рядовом обновлении iOS, а о свободе людей — здесь не получится выкрутиться, выпустив обновление.

Кроме того, нет никакого подробного описания, как компания планирует «консультироваться» и с кем, чтобы собрать информацию — возможно, это уже каким-то образом затрагивает личные данные пользователей. Гадать можно невероятно долго, а точный ответ есть лишь у компании. А что вы думаете по этому поводу? Напишите нам в Telegram-чат, давайте обсудим.

Читайте также: Почему мы не расстаемся со смартфоном

Как Apple отреагировала на критику CSAM

Негодование пользователей и широкий общественный резонанс сыграли на руку: высказались эксперты в области информационной безопасности и даже сам Эдвард Сноуден, который призвал Apple остановиться и не реализовывать функции. Это правильно, ведь где поиск запретного детского контента, там недалеко и до слежки за пользователями. Компания анонсировала нововведение, пытаясь сделать что-то хорошее, но разъяснять принцип его действия начала лишь спустя какое-то время, выпуская пресс-релизы и целые объяснительные статьи по этому поводу.

Крейг Федериги попытался всех успокоить, но получилось так себе

Несмотря на жалобы, Крейг Федериги попытался всех успокоить, лично объяснив принцип работы нового механизма обработки фотографий. Он назвал путаницей весь негатив, обрушившийся на компанию в результате анонсирования нововведений, и заявил, что пользователи неправильно поняли намерения компании.

Мы хотели бы, чтобы это стало понятнее для всех, потому что мы очень позитивно и решительно относимся к тому, что делаем, и видим, но это неправильно понимается, — сказал Крейг Федериги.

Apple будет проверять фото. Почему это плохо

Компания гордится теми системами безопасности, которые ежегодно обновляет и улучшает. Вы сканируете лицо через Face ID или прикладываете палец, чтобы разблокировать iPhone с помощью Touch ID. Это защищает устройство от недоброжелателей. Внезапно производитель добавляет функцию, которая способна беспрепятственно влезть в ваше устройство и облачное хранилище, чтобы найти какой-то неприемлемый, по ее мнению, контент. Что она с ним сделает?

В чем смысл Touch ID, если Apple сможет беспрепятственно проникать в ваши фотографии?

Сложно понять, ведь механизм, по заявлениям компании, будет работать очень точно, но доступа к контенту не будет иметь ни Apple, ни полиция, ни правозащитные организации. Где гарантии того, что алгоритм не будет воровать данные или красть личные фотографии пользователей? Гарантий, как всегда, нет. Кроме того, это нарушает право пользователей на неприкосновенность личных данных — понятно, что глупо на это надеяться в 2021 году, но так наглеть попросту не стоит.

Компания и так имеет доступ к данным пользователей — часть данных шифруется для защиты от взлома, но по запросу властей Apple запросто расшифрует их, потому что корпорации не нужны проблемы с законом и запрет на деятельность. Алгоритм CSAM — неплохая попытка отвертеться от слежки за пользователями, только никому он не нужен и не нравится. Люди покупают дорогущие смартфоны Apple и пользуются сервисами компании, заявляющей, что конфиденциальность — это ее сильная сторона. Выходит, что совсем наоборот. Ждем продолжения в этой истории.

Компания AppleПроблемы AppleСоветы по работе с Apple
Лучший комментарий  
Чтобы оставить комментарий