MacRumors

Skip to Content

Apple хранит молчание относительно планов по обнаружению известного материала, связанного с сексуальным насилием над детьми (CSAM), в iCloud Фото

Прошел уже более года с тех пор, как Apple объявила о планах внедрения трех новых функций безопасности детей, включая систему для обнаружения известных изображений, связанных с сексуальным насилием над детьми (CSAM), хранящихся в iCloud Фото, опцию для размытия сексуально откровенных фотографий в приложении «Сообщения» и ресурсы по борьбе с эксплуатацией детей для Siri. Последние две функции уже доступны, но Apple хранит молчание относительно своих планов по внедрению функции обнаружения CSAM.

iCloud General Feature
Apple изначально заявляла, что обнаружение CSAM будет реализовано в обновлении iOS 15 и iPadOS 15 к концу 2021 года, но компания в итоге отложила внедрение функции, основываясь на «отзывах клиентов, правозащитных групп, исследователей и других».

В сентябре 2021 года Apple опубликовала следующее обновление на своей странице «Безопасность детей»:

Ранее мы объявляли о планах внедрения функций, призванных защитить детей от хищников, использующих инструменты связи для их вербовки и эксплуатации, а также помочь ограничить распространение материалов, связанных с сексуальным насилием над детьми. Основываясь на отзывах клиентов, правозащитных групп, исследователей и других, мы решили взять дополнительное время в ближайшие месяцы для сбора мнений и внесения улучшений перед выпуском этих крайне важных функций безопасности детей.

В декабре 2021 года Apple удалила вышеупомянутое обновление и все упоминания о планах по обнаружению CSAM со своей страницы «Безопасность детей», однако представитель Apple сообщил The Verge, что планы Apple в отношении этой функции не изменились. Однако, насколько нам известно, с того времени Apple публично не комментировала эти планы.

Мы связались с Apple, чтобы узнать, планируется ли еще эта функция. Apple не сразу ответила на запрос о комментарии.

Apple продолжила внедрение своих функций безопасности детей для приложения «Сообщения» и Siri с выходом iOS 15.2 и других обновлений программного обеспечения в декабре 2021 года, а также расширила функцию приложения «Сообщения» на Австралию, Канаду, Новую Зеландию и Великобританию с выходом iOS 15.5 и других обновлений программного обеспечения в мае 2022 года.

Apple заявила, что ее система обнаружения CSAM «разработана с учетом конфиденциальности пользователей». Система будет выполнять «сопоставление на устройстве с использованием базы данных известных хэшей изображений CSAM» от организаций по безопасности детей, которые Apple преобразует в «нечитаемый набор хэшей, безопасно хранящийся на устройствах пользователей».

Apple планировала сообщать об учетных записях iCloud с известными хэшами изображений CSAM в Национальный центр по борьбе с пропавшими и эксплуатируемыми детьми (NCMEC), некоммерческую организацию, которая сотрудничает с правоохранительными органами США. Apple заявила, что будет существовать «порог», который обеспечит «менее чем один шанс из триллиона в год» на ошибочное срабатывание системы для учетной записи, а также ручную проверку помеченных учетных записей человеком.

Планы Apple подверглись критике со стороны широкого круга лиц и организаций, включая специалистов по безопасности, Электронный фронт защиты (EFF), политиков, политические группы, университетских исследователей и даже некоторых сотрудников Apple.

Некоторые критики утверждали, что функции безопасности детей Apple могут создать «черный ход» в устройствах, который правительства или правоохранительные органы могли бы использовать для слежки за пользователями. Другой проблемой были ложные срабатывания, включая возможность того, что кто-то намеренно добавит изображения CSAM в учетную запись iCloud другого человека, чтобы его учетная запись была помечена.

Примечание: В связи с политическим или социальным характером обсуждения данной темы, ветка обсуждения находится на нашем форуме политических новостей. Все участники форума и посетители сайта могут читать и следить за веткой, но публикация ограничена участниками форума, имеющими не менее 100 сообщений.