Apple пообещала не превращать алгоритм обнаружения незаконного контента в инструмент слежки
Корпорация Apple выпустила шестистраничный документ с ответами на вопросы о работе технологии сканирования фотографий пользователей на предмет наличия жестокого обращения с детьми.
В компании отрицают возможность перепрофилирования ее инструмента для поиска других видов материалов на телефонах и компьютерах пользователей, кроме CSAM. По словам представителей Apple, они не будут расширять охват возможностей сканирования и откажутся от любых подобных требований со стороны властей.
«Мы и раньше сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшают конфиденциальность пользователей, и упорно отказывались от этих требований. Мы продолжим отказываться от них и в будущем», — заявили в компании.
Apple пояснила, что изначально функции запустят только в США. Компания пообещала тщательно проводить юридические оценки для каждой страны перед запуском инструмента во избежание злоупотреблений со стороны властей.
В Apple также уточнили некоторые детали работы инструментов сканирования изображений на предмет жестокого обращения с детьми и обнаружения откровенных фотографий в «Сообщениях»:
- Для полноценной работы функции обнаружения CSAM необходимо активировать iCloud. Apple выполняет поиск только по контенту, который используется совместно с ее облачной системой.
- Apple не загружает на устройство изображения жестокого обращения с детьми для последующего сравнения. Вместо этого алгоритм использует базу данных хешей известных изображений CSAM. Эти коды будут загружены в операционную систему телефона, что позволит автоматически сравнивать фотографии, загруженные в облако, с хешами в базе данных.
- iCloud отсканирует все имеющиеся в облаке фотографии, а не только новые. В дополнение к сканированию фотографий, которые будут загружены в iCloud в будущем, Apple планирует проверить все хранящиеся фотографии на ее облачных серверах.
- Функция «Сообщений» для защиты детей от непристойных фотографий не передает данные в Apple или правоохранительные органы. Родителей малолетних детей не станут предупреждать при отправке или получении каждого откровенного снимка. Система сначала спросит у ребенка подтверждение на просмотр. Если он согласится — родители получат уведомление. Функция доступна только для семейных групп и активируется вручную.
- Система не уведомит о просмотре откровенного контента в «Сообщениях» родителей подростков. Для детей 13—17 лет система размоет фотографии и предупредит об опасности содержимого.
- Анализ изображений в «Сообщениях» не нарушает оконечное шифрование. Проверка фотографий происходит непосредственно на устройстве, куда приходит письмо. Компания не передает эти данные в облако.
Несмотря на разъяснения со стороны Apple, специалисты и защитники конфиденциальности выразили обеспокоенность по поводу нововведений. Эксперт по безопасности Мэтью Грин предположил, что система имеет уязвимости, которые могут использовать правоохранительные органы.
Somebody proposed the following scenario to me, and I’m curious what the law is.
— Matthew Green (@matthew_d_green) August 9, 2021
1. US DoJ approaches NCMEC, asks them to add non-CSAM photos to the hash database.
2. When these photos trigger against Apple users, DoJ sends a preservation order to Apple to obtain customer IDs.
Напомним, 6 августа Apple рассказала об инструменте для сканирования фотографий пользователей на предмет жестокого обращения с детьми.
В июне Apple представила беспарольную регистрацию с помощью Face ID и Touch ID.
В декабре 2020 года Apple выпустила обновление для iOS, которое позволяет пользователям отключить сбор персональных данных внутри приложений. Новые правила вызвали волну возмущений со стороны разработчиков приложений, в первую очередь Facebook и Google.
Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!