Глава Apple по вопросам конфиденциальности Эрик Нёйеншвандер ответил на обеспокоенность некоторых пользователей относительно планов компании по внедрению новых функций безопасности детей, которые будут сканировать сообщения и библиотеки Фото, в интервью изданию TechCrunch.
Отвечая на вопрос, почему Apple решила внедрять только функции безопасности детей, сканирующие материалы, связанные с сексуальным насилием над детьми (CSAM), Нёйеншвандер пояснил, что теперь у Apple «есть технология, позволяющая обеспечить как надежную безопасность детей, так и конфиденциальность пользователей», что дает компании «новую возможность идентифицировать учетные записи, на которых начинают формироваться коллекции известного CSAM».
Нёйеншвандера спросили, было ли, оглядываясь назад, правильным решением объявить о функциях безопасности коммуникаций в «Сообщениях» и системе обнаружения CSAM в iCloud Фото одновременно, на что он ответил:
Что ж, хотя это [две] системы, они также являются частью наших усиленных мер вмешательства, которые будут реализованы в Siri и поиске. Поскольку важно идентифицировать коллекции известного CSAM там, где они хранятся в сервисе iCloud Фото от Apple, так же важно попытаться решить эту уже ужасную ситуацию.
На вопрос о том, пытается ли Apple продемонстрировать правительствам и агентствам по всему миру, что возможно сканировать на предмет незаконного контента, сохраняя при этом конфиденциальность пользователей, Нёйеншвандер пояснил:
Зачем это делать? Потому что, как вы сказали, это обеспечит возможность обнаружения при сохранении конфиденциальности пользователей. Мы мотивированы необходимостью делать больше для обеспечения безопасности детей в цифровой экосистеме, и все три наши функции, я считаю, делают очень позитивные шаги в этом направлении. В то же время мы оставим конфиденциальность нетронутой для всех, кто не занимается незаконной деятельностью.
Его спросили, создала ли Apple платформу, которую правоохранительные органы могли бы использовать для сканирования других видов контента в библиотеках пользователей, и не подрывает ли это приверженность Apple сквозному шифрованию.
Это не меняет ничего ни на йоту. Устройство по-прежнему зашифровано, мы по-прежнему не владеем ключом, и система разработана для работы с данными на устройстве… Альтернатива обработки путем сканирования и попытки оценки данных пользователей на сервере на самом деле более подвержена изменениям [без ведома пользователя] и менее защищает конфиденциальность пользователей… Именно такие системы, на мой взгляд, вызывают больше беспокойства с точки зрения свойств конфиденциальности — или того, как их можно изменить без какого-либо понимания или осведомленности пользователя для выполнения действий, отличных от тех, для которых они были предназначены.
Затем Нёйеншвандера спросили, может ли Apple быть вынуждена соблюдать законы за пределами США, которые могут заставить ее добавлять в базу данных для проверки на устройстве материалы, отличные от CSAM, на что он ответил, что в службе есть «ряд встроенных защит».
Хеш-список встроен в операционную систему, у нас одна глобальная операционная система, и мы не можем нацеливать обновления на отдельных пользователей, поэтому хеш-списки будут общими для всех пользователей при включении системы. Во-вторых, система требует превышения порогового значения изображений, поэтому попытка обнаружить даже одно изображение с устройства одного человека или группы устройств не сработает, поскольку система просто не предоставляет Apple никаких сведений об отдельных фотографиях, хранящихся в нашем сервисе. И, в-третьих, в систему встроен этап ручной проверки, при котором, если учетная запись помечена как содержащая коллекцию незаконных материалов CSAM, команда Apple проверит ее, чтобы убедиться, что это правильное совпадение незаконных материалов CSAM, прежде чем передавать информацию любой внешней организации. Таким образом, гипотетический сценарий требует преодоления множества препятствий, включая изменение Apple своего внутреннего процесса для передачи материалов, которые не являются незаконными, таких как известный CSAM, и мы не верим, что существуют основания, по которым люди смогут сделать такой запрос в США. И последний момент, который я хотел бы добавить, заключается в том, что это по-прежнему сохраняет выбор пользователя: если пользователь не одобряет такую функциональность, он может отказаться от использования iCloud Фото, а если iCloud Фото не включен, ни одна часть системы не будет функционировать.
Нёйеншвандер продолжил, что для пользователей, которые «не занимаются таким незаконным поведением, Apple не получает никаких дополнительных сведений о библиотеке какого-либо пользователя в облаке» и «полностью сохраняет конфиденциальность».
См. полное интервью Нёйеншвандера на TechCrunch для получения дополнительной информации.