Apple опубликовала FAQ под названием «Расширенная защита детей», направленный на снижение опасений пользователей по поводу конфиденциальности в связи с новой функцией обнаружения CSAM в iCloud Photos и обеспечением безопасности общения для функций «Сообщения», которые компания анонсировала на прошлой неделе.
«С момента анонса этих функций многие заинтересованные стороны, включая организации по защите конфиденциальности и организации по защите детей, выразили свою поддержку этому новому решению, а некоторые обратились с вопросами», — говорится в FAQ. «Этот документ призван ответить на эти вопросы и предоставить больше ясности и прозрачности в процессе».
Некоторые обсуждения размыли различие между двумя функциями, и Apple подробно остановилась в документе на их разграничении, объясняя, что безопасность общения в «Сообщениях» «работает только с изображениями, отправленными или полученными в приложении «Сообщения» для детских учетных записей, настроенных в «Семейном доступе»», в то время как обнаружение CSAM в iCloud Photos «влияет только на пользователей, которые решили использовать iCloud Photos для хранения своих фотографий… Это никак не затрагивает другие данные на устройстве».
Из FAQ:
Эти две функции не идентичны и не используют одну и ту же технологию.
Безопасность общения в «Сообщениях» предназначена для предоставления родителям и детям дополнительных инструментов, чтобы помочь защитить их детей от отправки и получения изображений откровенно сексуального характера в приложении «Сообщения». Она работает только с изображениями, отправленными или полученными в приложении «Сообщения» для детских учетных записей, настроенных в «Семейном доступе». Она анализирует изображения на устройстве, поэтому не изменяет гарантии конфиденциальности «Сообщений». Когда детская учетная запись отправляет или получает изображения откровенно сексуального характера, фотография будет размыта, а ребенку будет показано предупреждение, предоставлены полезные ресурсы, и будет сказано, что он может отказаться от просмотра или отправки фотографии. В качестве дополнительной меры предосторожности маленьким детям также может быть сообщено, что для обеспечения их безопасности родители получат сообщение, если они ее просмотрят.
Вторая функция, обнаружение CSAM в iCloud Photos, предназначена для удаления CSAM из iCloud Photos без предоставления Apple информации о каких-либо фотографиях, кроме тех, которые совпадают с известными изображениями CSAM. Изображения CSAM незаконны для хранения в большинстве стран, включая США. Эта функция влияет только на пользователей, которые решили использовать iCloud Photos для хранения своих фотографий. Она не затрагивает пользователей, которые не решили использовать iCloud Photos. Это никак не затрагивает другие данные на устройстве. Эта функция не применяется к «Сообщениям».
Остальная часть документа разделена на три раздела (выделены жирным шрифтом ниже) с ответами на следующие часто задаваемые вопросы:
- Безопасность общения в «Сообщениях»
- Кто может использовать безопасность общения в «Сообщениях»?
- Означает ли это, что «Сообщения» будут передавать информацию Apple или правоохранительным органам?
- Нарушает ли это сквозное шифрование в «Сообщениях»?
- Предотвращает ли эта функция детей из неблагополучных семей от поиска помощи?
- Будут ли родители уведомлены без предупреждения детей и предоставления им выбора?
- Обнаружение CSAM
- Означает ли это, что Apple будет сканировать все фотографии, хранящиеся на моем iPhone?
- Будет ли эта функция загружать изображения CSAM на мой iPhone для сравнения с моими фотографиями?
- Почему Apple делает это сейчас?
- Безопасность для обнаружения CSAM в iCloud Photos
- Может ли система обнаружения CSAM в iCloud Photos использоваться для обнаружения чего-либо, кроме CSAM?
- Могут ли правительства заставить Apple добавить не-CSAM изображения в список хэшей?
- Могут ли не-CSAM изображения быть «внедрены» в систему для пометки учетных записей за что-либо, кроме CSAM?
- Будет ли обнаружение CSAM в iCloud Photos ложно помечать невинных людей для правоохранительных органов?
Заинтересованным читателям следует ознакомиться с полными ответами Apple на эти вопросы в документе. Однако стоит отметить, что на вопросы, на которые можно ответить бинарным «да/нет», Apple начинает все с «Нет», за исключением следующих трех вопросов из раздела «Безопасность обнаружения CSAM для iCloud Photos»:
Может ли система обнаружения CSAM в iCloud Photos использоваться для обнаружения чего-либо, кроме CSAM?
Наша система разработана таким образом, чтобы предотвратить это. Обнаружение CSAM для iCloud Photos построено таким образом, что система работает только с хэшами изображений CSAM, предоставленными NCMEC и другими организациями по защите детей. Этот набор хэшей изображений основан на изображениях, полученных и проверенных организациями по защите детей как CSAM. Автоматизированная отчетность правоохранительным органам отсутствует, и Apple проводит проверку человеком перед подачей отчета в NCMEC. В результате система предназначена только для сообщения об известных изображениях CSAM в iCloud Photos. В большинстве стран, включая США, простое хранение этих изображений является преступлением, и Apple обязана сообщать обо всех известных ей случаях соответствующим органам.Могут ли правительства заставить Apple добавить не-CSAM изображения в список хэшей?
Apple откажет в выполнении любых подобных требований. Возможность обнаружения CSAM от Apple создана исключительно для обнаружения известных изображений CSAM, хранящихся в iCloud Photos, которые были идентифицированы экспертами из NCMEC и других групп по защите детей. Мы сталкивались с требованиями создать и внедрить обязательные государством изменения, которые снижают конфиденциальность пользователей, и твердо отказывались от них. Мы будем продолжать отказываться от них и в будущем. Дадим ясно понять, эта технология ограничена обнаружением CSAM, хранящегося в iCloud, и мы не подчинимся никаким запросам правительства на ее расширение. Более того, Apple проводит проверку человеком перед подачей отчета в NCMEC. В случае, если система помечает фотографии, которые не совпадают с известными изображениями CSAM, учетная запись не будет отключена, и отчет в NCMEC подан не будет.Могут ли не-CSAM изображения быть «внедрены» в систему для пометки учетных записей за что-либо, кроме CSAM?
Наш процесс разработан таким образом, чтобы предотвратить это. Набор хэшей изображений, используемых для сопоставления, получен из известных существующих изображений CSAM, которые были приобретены и проверены организациями по защите детей. Apple не добавляет в набор известных хэшей изображений CSAM. Один и тот же набор хэшей хранится в операционной системе каждого пользователя iPhone и iPad, поэтому целенаправленные атаки на конкретных лиц невозможны в соответствии с нашей конструкцией. Наконец, автоматизированная отчетность правоохранительным органам отсутствует, и Apple проводит проверку человеком перед подачей отчета в NCMEC. В маловероятном случае, если система пометит изображения, не соответствующие известным изображениям CSAM, учетная запись не будет отключена, и отчет в NCMEC подан не будет.
Apple столкнулась со значительной критикой со стороны защитников конфиденциальности, исследователей безопасности, криптографов, ученых и других лиц за свое решение развернуть эту технологию с выпуском iOS 15 и iPadOS 15, ожидаемым в сентябре.
В результате появилось открытое письмо с критикой плана Apple по сканированию iPhone на предмет CSAM в iCloud Photos и явных изображений в сообщениях детей, которое на данный момент собрало более 5500 подписей. Apple также подверглась критике со стороны WhatsApp, принадлежащего Facebook, глава которого, Уилл Кэткарт, назвал это «неправильным подходом и шагом назад для конфиденциальности людей во всем мире». Генеральный директор Epic Games Тим Суини также атаковал это решение, заявив, что он «приложил много усилий», чтобы понять позицию Apple, но пришел к выводу, что «неизбежно это правительственное шпионское ПО, установленное Apple на основе презумпции виновности».
«Независимо от того, насколько хорошо это было задумано, Apple внедряет массовую слежку для всего мира», — заявил известный информатор Эдвард Сноуден, добавив, что «если сегодня они могут сканировать детскую порнографию, то завтра они смогут сканировать что угодно». Некоммерческая организация Electronic Frontier Foundation также критиковала планы Apple, заявив, что «даже тщательно задокументированная, продуманная и узконаправленная лазейка остается лазейкой».