MacRumors

Skip to Content

Apple представляет новые функции защиты детей, включая сканирование пользовательских фотобиблиотек на предмет материалов, связанных с сексуальным насилием над детьми

Сегодня Apple представила новые функции защиты детей, которые появятся на ее платформах с обновлениями программного обеспечения в конце этого года. Компания заявила, что на момент запуска функции будут доступны только в США, а со временем их внедрят и в других регионах.

iphone communication safety feature

Безопасность общения

Во-первых, приложение «Сообщения» на iPhone, iPad и Mac получит новую функцию «Безопасность общения», которая будет предупреждать детей и их родителей при получении или отправке фотографий сексуального характера. Apple заявила, что приложение «Сообщения» будет использовать машинное обучение на устройстве для анализа вложений изображений, и если фотография будет признана сексуально откровенной, она будет автоматически размыта, а ребенок получит предупреждение.

Когда ребенок попытается просмотреть фотографию с пометкой «деликатная» в приложении «Сообщения», ему будет сообщено, что фотография может содержать изображения интимных частей тела и может вызвать травму. В зависимости от возраста ребенка, у родителей также будет возможность получать уведомления, если их ребенок продолжит просмотр деликатной фотографии или решит отправить сексуально откровенную фотографию другому контакту после получения предупреждения.

Apple заявила, что новая функция «Безопасность общения» появится в обновлениях iOS 15, iPadOS 15 и macOS Monterey в конце этого года для учетных записей, настроенных как семейные в iCloud. Apple гарантирует, что переписка iMessage останется защищенной сквозным шифрованием, что делает конфиденциальные сообщения нечитаемыми для Apple.

Сканирование фотографий на предмет материалов, связанных с сексуальным насилием над детьми (CSAM)

Во-вторых, начиная с этого года с iOS 15 и iPadOS 15, Apple сможет обнаруживать известные материалы, связанные с сексуальным насилием над детьми (CSAM), хранящиеся в iCloud Фото, что позволит Apple сообщать об этих случаях в Национальный центр пропавших и эксплуатируемых детей (NCMEC), некоммерческую организацию, сотрудничающую с правоохранительными органами США.

Apple заявила, что ее метод обнаружения известных CSAM разработан с учетом конфиденциальности пользователей. Вместо сканирования изображений в облаке Apple заявляет, что система будет выполнять сопоставление на устройстве с базой данных хэшей известных изображений CSAM, предоставленной NCMEC и другими организациями по защите детей. Apple заявила, что далее преобразует эту базу данных в нечитаемый набор хэшей, которые надежно хранятся на устройствах пользователей.

Технология хэширования, называемая NeuralHash, анализирует изображение и преобразует его в уникальное число, специфичное для этого изображения, согласно Apple.

«Основная цель хэша — гарантировать, что идентичные и визуально похожие изображения дают одинаковый хэш, в то время как разные изображения дают разные хэши», — говорится в новом техническом документе Apple «Расширенные меры защиты детей». «Например, изображение, которое было немного обрезано, изменено в размере или преобразовано из цветного в черно-белое, обрабатывается как идентичное оригиналу и имеет тот же хэш».

apple csam flow chart


Перед сохранением изображения в iCloud Фото Apple заявляет, что на устройстве выполняется процесс сопоставления этого изображения с нечитаемым набором известных хэшей CSAM. В случае совпадения устройство создает криптографический защитный ваучер. Этот ваучер загружается в iCloud Фото вместе с изображением, и как только превышен неуказанный порог совпадений, Apple получает возможность интерпретировать содержимое ваучеров для совпадений CSAM. Затем Apple вручную проверяет каждый отчет, чтобы подтвердить совпадение, отключает учетную запись iCloud пользователя и отправляет отчет в NCMEC. Apple не раскрывает точный порог, но гарантирует «исключительно высокий уровень точности», при котором учетные записи не помечаются ошибочно.

Apple заявила, что ее метод обнаружения известных CSAM обеспечивает «значительные преимущества в конфиденциальности» по сравнению с существующими методами:

• Эта система является эффективным способом выявления известных CSAM, хранящихся в учетных записях iCloud Фото, при одновременной защите конфиденциальности пользователей.
• В рамках процесса пользователи также не могут узнать ничего о наборе известных изображений CSAM, используемых для сопоставления. Это защищает содержимое базы данных от злонамеренного использования.
• Система очень точна, с чрезвычайно низким уровнем ошибок — менее одного на триллион учетных записей в год.
• Система значительно более конфиденциальна, чем облачное сканирование, поскольку она сообщает только о пользователях, у которых есть коллекция известных CSAM, хранящаяся в iCloud Фото.

Базовая технология, лежащая в основе системы Apple, довольно сложна, и компания опубликовала техническое резюме с более подробной информацией.

«Расширенные меры защиты детей от Apple меняют правила игры. Поскольку так много людей пользуются продуктами Apple, эти новые меры безопасности имеют потенциал спасения жизней детей, которых заманивают в онлайн-среду, и чьи ужасные изображения распространяются как материалы сексуального насилия над детьми», — сказал Джон Кларк, президент и генеральный директор Национального центра пропавших и эксплуатируемых детей. «В Национальном центре пропавших и эксплуатируемых детей мы знаем, что с этим преступлением можно бороться только при условии непоколебимой преданности защите детей. Мы можем сделать это только благодаря тому, что технологические партнеры, такие как Apple, проявляют активность и демонстрируют свою приверженность. Реальность такова, что конфиденциальность и защита детей могут сосуществовать. Мы аплодируем Apple и с нетерпением ждем совместной работы, чтобы сделать этот мир безопаснее для детей».

Расширенное руководство по CSAM в Siri и поиске

iphone csam siri


В-третьих, Apple заявила, что расширит руководство в Siri и Spotlight Search на всех устройствах, предоставляя дополнительные ресурсы для помощи детям и родителям в обеспечении безопасности в Интернете и получении помощи в опасных ситуациях. Например, пользователям, которые спрашивают Siri, как сообщить о CSAM или эксплуатации детей, будут предоставлены ресурсы о том, куда и как подать отчет.

Обновления Siri и Поиска появятся позже в этом году в обновлении iOS 15, iPadOS 15, watchOS 8 и macOS Monterey, по данным Apple.

Примечание: В связи с политическим или социальным характером обсуждения этой темы, ветка обсуждения находится в нашем форуме Политические новости. Все участники форума и посетители сайта могут читать и следить за веткой, но публикация ограничена членами форума, имеющими не менее 100 сообщений.