Сотрудники Apple присоединяются к хору лиц, выражающих обеспокоенность планами Apple по сканированию iPhone пользователей на предмет наличия CSAM или материалов, связанных с сексуальным насилием над детьми. По сообщениям Reuters, они внутренне высказываются о том, что эта технология может быть использована для сканирования фотографий пользователей на предмет других типов контента.
По данным Reuters, неуказанное число сотрудников Apple в своих внутренних каналах Slack выражает обеспокоенность по поводу обнаружения CSAM. В частности, сотрудники опасаются, что правительства могут заставить Apple использовать эту технологию для цензуры, находя контент, отличный от CSAM. Некоторые сотрудники обеспокоены тем, что Apple наносит ущерб своей лидирующей на рынке репутации в области конфиденциальности.
Сотрудники Apple заполнили внутренний канал Apple в Slack более чем 800 сообщениями о плане, объявленном неделю назад, как сообщили Reuters работники, пожелавшие остаться неизвестными. Многие выразили опасения, что эта функция может быть использована репрессивными правительствами, стремящимися найти другие материалы для цензуры или арестов, по словам работников, ознакомившихся с этой многодневной веткой обсуждения.
Прошлые изменения в области безопасности Apple также вызывали беспокойство среди сотрудников, но объем и продолжительность новой дискуссии удивительны, отметили работники. Некоторые участники дискуссии опасались, что Apple наносит ущерб своей ведущей репутации в защите конфиденциальности.
По данным отчета, сотрудники Apple, занимающиеся вопросами безопасности пользователей, предположительно, не принимали участия во внутреннем протесте.
С момента анонса на прошлой неделе Apple подвергается критике за свои планы по обнаружению CSAM, которые, как ожидается, будут запущены с iOS 15 и iPadOS 15 этой осенью. Основная обеспокоенность связана с тем, что эта технология может стать «скользким путем» для будущих внедрений со стороны репрессивных правительств и режимов.
Apple решительно отвергает идею о том, что технология на устройстве, используемая для обнаружения материалов CSAM, может быть использована для каких-либо других целей. В опубликованном FAQ документе компания заявляет, что будет категорически отказываться от любых подобных требований со стороны правительств.
Могут ли правительства заставить Apple добавить изображения, не являющиеся CSAM, в список хэшей?
Apple будет отказываться от любых подобных требований. Возможности обнаружения CSAM в Apple предназначены исключительно для обнаружения известных изображений CSAM, хранящихся в iCloud Photos, которые были идентифицированы экспертами из NCMEC и других групп по безопасности детей. Мы сталкивались с требованиями разработать и внедрить изменения, предписанные правительством, которые снижают конфиденциальность пользователей, и мы решительно отказывались от этих требований. Мы будем продолжать отказываться от них и в будущем. Хотим внести ясность: эта технология ограничена обнаружением CSAM, хранящихся в iCloud, и мы не пойдем на уступки по любому запросу правительства о ее расширении. Кроме того, Apple проводит проверку человеком перед отправкой отчета в NCMEC. В случае, если система помечает фотографии, которые не соответствуют известным изображениям CSAM, учетная запись не будет отключена, и отчет в NCMEC не будет отправлен.
Открытое письмо, критикующее Apple и призывающее компанию немедленно остановить развертывание системы обнаружения CSAM, набрало более 7000 подписей на момент написания. Глава WhatsApp также высказался по поводу этой дискуссии.