MacRumors

Skip to Content

Apple подтвердила, что функция обнаружения материалов сексуального насилия над детьми отключена при выключенной функции «Фото iCloud»

Apple сегодня объявила, что в iOS 15 и iPadOS 15 будет представлена ​​новая система обнаружения материалов сексуального насилия над детьми (CSAM) на iPhone и iPad в США.

iCloud General Feature
На устройствах пользователей будет загружена база данных хешей известных изображений CSAM, которые нельзя прочитать. Затем будет выполнено сравнение на устройстве с фотографиями пользователя, помечая их как известные материалы CSAM перед загрузкой в ​​«Фото iCloud». Apple заявляет, что это очень точный метод обнаружения CSAM и защиты детей.

Сканирование изображений CSAM не является необязательной функцией и происходит автоматически, но Apple подтвердила MacRumors, что не может обнаруживать известные изображения CSAM, если функция «Фото iCloud» отключена.

Метод Apple работает путем идентификации известной фотографии CSAM на устройстве, а затем ее маркировки при загрузке в «Фото iCloud» с прикрепленным ваучером. После того, как определенное количество ваучеров (то есть помеченных фотографий) будет загружено в «Фото iCloud», Apple сможет интерпретировать ваучеры и провести ручную проверку. Если будет обнаружен контент CSAM, учетная запись пользователя будет отключена, а Национальный центр по делам пропавших без вести и эксплуатируемых детей будет уведомлен.

Поскольку Apple сканирует «Фото iCloud» на наличие маркеров CSAM, вполне логично, что функция не работает при отключенной функции «Фото iCloud». Apple также подтвердила, что не может обнаруживать известные изображения CSAM в «iCloud» Резервных копиях, если на устройстве пользователя отключена функция «Фото iCloud».

Стоит отметить, что Apple сканирует специально хеши известных материалов сексуального насилия над детьми и не проводит широкую проверку библиотеки фотографий пользователя или сканирование личных изображений, которые еще не распространяются среди тех, кто злоупотребляет детьми. Тем не менее, пользователи, обеспокоенные конфиденциальностью в отношении усилий Apple по сканированию библиотек фотографий пользователей, могут отключить функцию «Фото iCloud».

Исследователи безопасности выразили обеспокоенность по поводу инициативы Apple по борьбе с CSAM и опасаются, что в будущем она сможет обнаруживать другие виды контента, которые могут иметь политические последствия и последствия для безопасности, но пока усилия Apple ограничены поиском злоумышленников, насилующих детей.

Примечание: В связи с политическим или социальным характером обсуждения данной темы, ветка обсуждения находится в нашем форуме «Политические новости». Все участники форума и посетители сайта могут читать и следить за веткой, но публикация сообщений ограничена участниками форума, имеющими не менее 100 публикаций.