MacRumors

Skip to Content

Apple дает новые разъяснения по поводу отказа от планов по обнаружению CSAM в iCloud Photos

В четверг Apple предоставила наиболее полное на сегодняшний день объяснение причин отказа от своего нашумевшего в прошлом году плана по обнаружению известного материала, связанного с сексуальным насилием над детьми (CSAM), хранящегося в iCloud Photos.

iCloud General Feature
Заявление Apple, опубликованное изданием Wired и приведенное ниже, было сделано в ответ на требование группы по защите детей Heat Initiative, которая настаивала на том, чтобы компания «обнаруживала, сообщала и удаляла» CSAM из iCloud и предоставляла пользователям больше инструментов для сообщения о подобном контенте.

«Материалы, связанные с сексуальным насилием над детьми, отвратительны, и мы стремимся прервать цепочку принуждения и влияния, которая делает детей уязвимыми для них», — написал Эрик Нойеншвандер, директор Apple по конфиденциальности пользователей и безопасности детей, в ответе компании на обращение Heat Initiative. Он добавил, однако, что после сотрудничества с множеством исследователей в области конфиденциальности и безопасности, правозащитными группами и защитниками прав детей компания пришла к выводу, что не может продолжить разработку механизма сканирования CSAM, даже если он будет специально создан для обеспечения конфиденциальности.

«Сканирование частных данных iCloud каждого пользователя создаст новые векторы угроз для похитителей данных, чтобы они могли находить и использовать их», — написал Нойеншвандер. «Это также создаст потенциал для скользкого пути непреднамеренных последствий. Сканирование одного типа контента, например, открывает дверь для массовой слежки и может вызвать желание искать другие системы зашифрованных сообщений по различным типам контента.»

В августе 2021 года Apple объявила о планах по внедрению трех новых функций для защиты детей, включая систему обнаружения известных изображений CSAM, хранящихся в iCloud Photos, функцию «Безопасность общения», которая размывает сексуально откровенные фотографии в приложении «Сообщения», и ресурсы по борьбе с детской эксплуатацией для Siri. Функция «Безопасность общения» была запущена в США с iOS 15.2 в декабре 2021 года и с тех пор распространилась на Великобританию, Канаду, Австралию и Новую Зеландию, а ресурсы для Siri также доступны, но обнаружение CSAM так и не было запущено.

Изначально Apple заявляла, что обнаружение CSAM будет реализовано в обновлении iOS 15 и iPadOS 15 к концу 2021 года, но компания отложила эту функцию на основании «отзывов от клиентов, групп по защите прав, исследователей и других». Планы подверглись критике со стороны широкого круга лиц и организаций, включая исследователей безопасности, Electronic Frontier Foundation (EFF), политиков, политические группы, университетских исследователей и даже некоторых сотрудников Apple.

Последний ответ Apple на этот вопрос прозвучал в то время, когда британское правительство вновь подняло дебаты о шифровании, рассматривая планы по внесению поправок в законодательство о наблюдении, которые обяжут технологические компании отключать функции безопасности, такие как сквозное шифрование, не уведомляя общественность.

Apple заявила, что отключит такие сервисы, как FaceTime и iMessage в Великобритании, если законодательство будет принято в его нынешнем виде.

Примечание: Из-за политического или социального характера обсуждения этой темы ветка обсуждения находится на нашем форуме Политические новости. Все участники форума и посетители сайта могут читать и следить за веткой, но публикация сообщений ограничена участниками форума, имеющими не менее 100 публикаций.