MacRumors

Skip to Content

Специалисты по безопасности выражают обеспокоенность планами Apple по сканированию изображений iCloud, хотя эта практика уже широко распространена

Apple сегодня объявила, что с выпуском iOS 15 и iPadOS 15 начнет сканировать iCloud Фото в США для поиска известных материалов сексуального насилия над детьми (CSAM), планируя сообщать о находках в Национальный центр пропавших и эксплуатируемых детей (NCMEC).

Child Safety Feature
До того, как Apple детализировала свои планы, просочилась новость об инициативе CSAM, и специалисты по безопасности уже начали выражать обеспокоенность тем, как новый протокол сканирования изображений Apple может быть использован в будущем, как отметил Financial Times.

Apple использует систему «NeuralHash» для сравнения известных изображений CSAM с фотографиями на iPhone пользователя перед их загрузкой в ​​iCloud. В случае совпадения эта фотография загружается с криптографическим ваучером безопасности, и при определенном пороге инициируется проверка, чтобы выяснить, есть ли у пользователя CSAM на его устройствах.

В настоящее время Apple использует свою технологию сканирования и сопоставления изображений для поиска детского насилия, но исследователи опасаются, что в будущем она может быть адаптирована для сканирования других видов изображений, вызывающих большую обеспокоенность, например, антиправительственных лозунгов на протестах.

В серии твитов исследователь криптографии Университета Джонса Хопкинса Мэттью Грин заявил, что сканирование CSAM — это «очень плохая идея», потому что в будущем оно может распространиться на сканирование сквозных зашифрованных фотографий, а не только контента, загруженного в iCloud. Для детей Apple действительно реализует отдельную функцию сканирования, которая ищет изображения откровенно сексуального характера непосредственно в iMessage, которые являются сквозными зашифрованными.

Грин также выразил обеспокоенность по поводу хешей, которые Apple планирует использовать, поскольку потенциально могут возникнуть «коллизии», когда кто-то отправляет безвредный файл, который имеет тот же хеш, что и CSAM, и это может привести к ложному срабатыванию.

Apple, со своей стороны, заявляет, что ее технология сканирования обладает «чрезвычайно высоким уровнем точности», чтобы гарантировать, что учетные записи не будут ошибочно помечены, и отчеты проходят ручную проверку перед отключением учетной записи iCloud и отправкой отчета в NCMEC.

Грин считает, что реализация Apple подтолкнет другие технологические компании к принятию аналогичных методов. «Это прорвет плотину», — написал он. «Правительства потребуют этого от всех». Он сравнил эту технологию с «инструментами, которые используют репрессивные режимы».

Специалист по безопасности Алек Маффетт, ранее работавший в Facebook, заявил, что решение Apple внедрить такой вид сканирования изображений является «огромным и регрессивным шагом для индивидуальной конфиденциальности». «Apple отступает от принципов конфиденциальности, чтобы воплотить в жизнь «1984»», — сказал он.

Росс Андерсон, профессор инженерной безопасности Кембриджского университета, назвал это «абсолютно ужасной идеей», которая может привести к «распределенной массовой слежке» за устройствами.

Как многие отметили в Twitter, несколько технологических компаний уже сканируют изображения на предмет CSAM. Google, Twitter, Microsoft, Facebook и другие используют методы хеширования изображений для поиска и сообщения об известных изображениях детского насилия.

Также стоит отметить, что Apple уже сканировала некоторый контент на наличие изображений детского насилия до запуска новой инициативы CSAM. В 2020 году главный специалист по конфиденциальности Apple Джейн Хорват заявила, что Apple использовала технологию скрининга для поиска незаконных изображений и затем отключала учетные записи при обнаружении доказательств CSAM.

В 2019 году Apple обновила свою политику конфиденциальности, чтобы отметить, что она будет сканировать загруженный контент на предмет «потенциально незаконного контента, включая материалы детской сексуальной эксплуатации», поэтому сегодняшние объявления не являются чем-то совершенно новым.

Примечание: В связи с политическим или социальным характером обсуждения этой темы, ветка обсуждения находится в нашем форуме Политические новости. Всем участникам форума и посетителям сайта приветствуется чтение и отслеживание ветки, но размещение сообщений ограничено участниками форума, имеющими не менее 100 сообщений.