MacRumors

Skip to Content

Apple отказалась от спорных планов по обнаружению известного детского сексуального насилия (CSAM) в iCloud Photos

В дополнение к тому, что сквозное шифрование стало доступно для iCloud Photos, Apple сегодня объявила, что отказалась от своих спорных планов по обнаружению известного детского сексуального насилия (CSAM), хранящегося в iCloud Photos, согласно заявлению, опубликованному в WIRED.

iCloud General Feature
Полное заявление Apple:

После обширных консультаций с экспертами для сбора отзывов о инициативах по защите детей, которые мы предложили в прошлом году, мы углубляем наши инвестиции в функцию «Безопасность общения», которую мы впервые сделали доступной в декабре 2021 года. Мы также решили не продвигаться вперед с нашим ранее предложенным инструментом обнаружения CSAM для iCloud Photos. Детей можно защитить без того, чтобы компании просматривали личные данные, и мы продолжим сотрудничать с правительствами, защитниками детей и другими компаниями, чтобы помочь защитить молодых людей, сохранить их право на конфиденциальность и сделать интернет более безопасным местом для детей и для всех нас.

В августе 2021 года Apple объявила о планах по трем новым функциям безопасности детей, включая систему для обнаружения известных изображений CSAM, хранящихся в iCloud Photos, опцию «Безопасность общения», которая размывает сексуально откровенные фотографии в приложении «Сообщения», и ресурсы по эксплуатации детей для Siri. Функция «Безопасность общения» была запущена в США с iOS 15.2 в декабре 2021 года и с тех пор расширилась на Великобританию, Канаду, Австралию и Новую Зеландию, а ресурсы Siri также доступны, но обнаружение CSAM так и не было запущено.

Изначально Apple заявила, что обнаружение CSAM будет реализовано в обновлении iOS 15 и iPadOS 15 к концу 2021 года, но компания в конечном итоге отложила эту функцию на основе «отзывов от клиентов, групп по защите интересов, исследователей и других». Теперь, после года молчания, Apple полностью отказалась от планов по обнаружению CSAM.

Apple обещала, что ее система обнаружения CSAM «разработана с учетом конфиденциальности пользователей». Система должна была выполнять «сопоставление на устройстве с использованием базы данных известных хэшей изображений CSAM» от организаций по защите детей, которые Apple преобразует в «нечитаемый набор хэшей, безопасно хранящийся на устройствах пользователей».

Apple планировала сообщать об учетных записях iCloud с известными хэшами изображений CSAM в Национальный центр пропавших и эксплуатируемых детей (NCMEC), некоммерческую организацию, которая сотрудничает с правоохранительными органами США. Apple заявила, что будет существовать «порог», который обеспечит «менее чем один шанс из триллиона в год» ошибочной пометки учетной записи системой, а также ручную проверку помеченных учетных записей человеком.

Планы Apple подверглись критике со стороны широкого круга лиц и организаций, включая специалистов по безопасности, Electronic Frontier Foundation (EFF), политиков, политических групп, университетских исследователей и даже некоторых сотрудников Apple.

Некоторые критики утверждали, что эта функция создала бы «лазейку» в устройствах, которую правительства или правоохранительные органы могли бы использовать для слежки за пользователями. Другой проблемой были ложные срабатывания, включая возможность того, что кто-то намеренно добавит изображения CSAM в учетную запись iCloud другого человека, чтобы его учетная запись была помечена.

Примечание: Из-за политического или социального характера обсуждения этой темы, ветка обсуждений находится на нашем форуме Политические новости. Все участники форума и посетители сайта могут читать и следить за веткой, но размещение сообщений ограничено для участников форума, имеющих не менее 100 публикаций.