MacRumors

Skip to Content

Apple заявляет, что технология NeuralHash, затронутая «коллизиями хеширования», не является той версией, которая используется для обнаружения CSAM

Разработчик Асухариет Ивгар сегодня утром заявил, что он провел обратное проектирование алгоритма NeuralHash, который Apple использует для обнаружения материалов, связанных с сексуальным насилием над детьми (CSAM), в iCloud Photos, опубликовав доказательства на GitHub и подробности в Reddit.

Child Safety Feature Blue
Ивгар сказал, что он провел обратное проектирование алгоритма NeuralHash из iOS 14.3, где код был скрыт, и перестроил его на Python. После того как он загрузил свои находки, другой пользователь смог создать коллизию — проблему, при которой два несоответствующих изображения имеют одинаковый хеш. Специалисты по безопасности предупреждали о такой возможности, поскольку потенциал коллизий может позволить использовать систему CSAM в своих целях.

В заявлении для Motherboard Apple заявила, что версия NeuralHash, которую Ивгар подверг обратному проектированию, не совпадает с окончательной реализацией, которая будет использоваться с системой CSAM. Apple также заявила, что сделала алгоритм общедоступным для проверки специалистами по безопасности, но существует второй частный серверный алгоритм, который проверяет совпадение CSAM после превышения порога, наряду с проверкой человеком.

Однако Apple сообщила Motherboard по электронной почте, что версия, проанализированная пользователями на GitHub, является общей версией, а не той финальной версией, которая будет использоваться для обнаружения CSAM в iCloud Photos. Apple заявила, что она также сделала алгоритм общедоступным.

«Алгоритм NeuralHash [… включен] в код подписанной операционной системы [и] специалисты по безопасности могут убедиться, что он ведет себя так, как описано», — говорится в одной из документаций Apple. Apple также заявила, что после того, как пользователь пройдет порог в 30 совпадений, результаты будет проверять второй непубличный алгоритм, работающий на серверах Apple.

Мэтью Грин, преподаватель криптографии в Университете Джонса Хопкинса и активный критик системы CSAM от Apple, сообщил Motherboard, что если коллизии «существуют для этой функции», то он ожидает, что «они будут существовать и в системе, которую Apple в конечном итоге активирует».

«Конечно, возможно, что они переработают хеш-функцию до ее развертывания», — сказал он. «Но как концепт, это определенно валидно», — сказал он о информации, распространенной на GitHub.

Однако из-за человеческого фактора другой исследователь, Николас Уивер, сообщил Motherboard, что все, что могут сделать люди, манипулируя хешами, не относящимися к CSAM, в CSAM, это «раздражать команду реагирования Apple мусорными изображениями до тех пор, пока они не внедрят фильтр» для избавления от ложных срабатываний. Реальное обман системы Apple также потребует доступа к хешам, предоставленным NCMEC, и потребует создания более 30 сталкивающихся изображений, при этом конечный результат не будет обманывать человеческий надзор.

Apple использует свою систему NeuralHash для сопоставления базы данных хешей изображений, предоставленных такими агентствами, как Национальный центр пропавших без вести детей (NCMEC), с изображениями на устройствах пользователей для поиска CSAM. Система предназначена для точного совпадения, и Apple утверждает, что шанс случайного блокировки учетной записи iCloud составляет один к триллиону.

Apple планирует внедрить систему NeuralHash CSAM в iOS и iPadOS 15 в рамках набора функций безопасности детей, и это решение вызвало огромные споры, получив критику со стороны клиентов и защитников конфиденциальности. Apple пытается заверить клиентов и специалистов по безопасности в реализации системы с помощью дополнительной документации и интервью с руководителями.