Прошел уже более года с тех пор, как Apple объявила о планах внедрения трех новых функций безопасности детей, включая систему для обнаружения известных изображений, связанных с сексуальным насилием над детьми (CSAM), хранящихся в iCloud Фото, опцию для размытия сексуально откровенных фотографий в приложении «Сообщения» и ресурсы по борьбе с эксплуатацией детей для Siri. Последние две функции уже доступны, но Apple хранит молчание относительно своих планов по внедрению функции обнаружения CSAM.
Apple изначально заявляла, что обнаружение CSAM будет реализовано в обновлении iOS 15 и iPadOS 15 к концу 2021 года, но компания в итоге отложила внедрение функции, основываясь на «отзывах клиентов, правозащитных групп, исследователей и других».
В сентябре 2021 года Apple опубликовала следующее обновление на своей странице «Безопасность детей»:
Ранее мы объявляли о планах внедрения функций, призванных защитить детей от хищников, использующих инструменты связи для их вербовки и эксплуатации, а также помочь ограничить распространение материалов, связанных с сексуальным насилием над детьми. Основываясь на отзывах клиентов, правозащитных групп, исследователей и других, мы решили взять дополнительное время в ближайшие месяцы для сбора мнений и внесения улучшений перед выпуском этих крайне важных функций безопасности детей.
В декабре 2021 года Apple удалила вышеупомянутое обновление и все упоминания о планах по обнаружению CSAM со своей страницы «Безопасность детей», однако представитель Apple сообщил The Verge, что планы Apple в отношении этой функции не изменились. Однако, насколько нам известно, с того времени Apple публично не комментировала эти планы.
Мы связались с Apple, чтобы узнать, планируется ли еще эта функция. Apple не сразу ответила на запрос о комментарии.
Apple продолжила внедрение своих функций безопасности детей для приложения «Сообщения» и Siri с выходом iOS 15.2 и других обновлений программного обеспечения в декабре 2021 года, а также расширила функцию приложения «Сообщения» на Австралию, Канаду, Новую Зеландию и Великобританию с выходом iOS 15.5 и других обновлений программного обеспечения в мае 2022 года.
Apple заявила, что ее система обнаружения CSAM «разработана с учетом конфиденциальности пользователей». Система будет выполнять «сопоставление на устройстве с использованием базы данных известных хэшей изображений CSAM» от организаций по безопасности детей, которые Apple преобразует в «нечитаемый набор хэшей, безопасно хранящийся на устройствах пользователей».
Apple планировала сообщать об учетных записях iCloud с известными хэшами изображений CSAM в Национальный центр по борьбе с пропавшими и эксплуатируемыми детьми (NCMEC), некоммерческую организацию, которая сотрудничает с правоохранительными органами США. Apple заявила, что будет существовать «порог», который обеспечит «менее чем один шанс из триллиона в год» на ошибочное срабатывание системы для учетной записи, а также ручную проверку помеченных учетных записей человеком.
Планы Apple подверглись критике со стороны широкого круга лиц и организаций, включая специалистов по безопасности, Электронный фронт защиты (EFF), политиков, политические группы, университетских исследователей и даже некоторых сотрудников Apple.
Некоторые критики утверждали, что функции безопасности детей Apple могут создать «черный ход» в устройствах, который правительства или правоохранительные органы могли бы использовать для слежки за пользователями. Другой проблемой были ложные срабатывания, включая возможность того, что кто-то намеренно добавит изображения CSAM в учетную запись iCloud другого человека, чтобы его учетная запись была помечена.
Примечание: В связи с политическим или социальным характером обсуждения данной темы, ветка обсуждения находится на нашем форуме политических новостей. Все участники форума и посетители сайта могут читать и следить за веткой, но публикация ограничена участниками форума, имеющими не менее 100 сообщений.