MacRumors

Skip to Content

Предлагаемые Apple функции сканирования телефонов для обеспечения безопасности детей названы «навязчивыми, неэффективными и опасными» экспертами по кибербезопасности в новом исследовании

Более десятка ведущих экспертов по кибербезопасности выступили с критикой в адрес Apple в четверг за использование «опасной технологии» в своем противоречивом плане по обнаружению изображений сексуального насилия над детьми на iPhone (через The New York Times).

Child Safety Feature Purple
Разгромная критика прозвучала в новом исследовании объемом 46 страниц, проведенном исследователями, которые изучили планы Apple и Европейского Союза по мониторингу телефонов людей на предмет незаконных материалов, и назвали эти усилия неэффективными и опасными стратегиями, которые будут способствовать государственному надзору.

Объявленные в августе планируемые функции включают сканирование на стороне клиента (то есть на устройстве) библиотек iCloud Photos пользователей на предмет материалов, связанных с сексуальным насилием над детьми (CSAM), функцию «Безопасность общения» для предупреждения детей и их родителей при получении или отправке сексуально откровенных фотографий, а также расширенное руководство по CSAM в Siri и поиске.

Согласно исследователям, документы, выпущенные Европейским Союзом, предполагают, что руководящий орган блока стремится к аналогичной программе, которая будет сканировать зашифрованные телефоны на предмет как сексуального насилия над детьми, так и признаков организованной преступности и изображений, связанных с терроризмом.

«Приоритетом национальной безопасности должно быть противодействие попыткам шпионажа за законопослушными гражданами и влияния на них», — заявили исследователи, добавив, что публикуют свои выводы сейчас, чтобы информировать Европейский Союз об опасностях его плана.

«Расширение полномочий государства в области наблюдения — это действительно переход красной черты», — сказал Росс Андерсон, профессор инженерной безопасности Кембриджского университета и член группы.

Помимо опасений по поводу слежки, исследователи заявили, что их выводы указывают на неэффективность технологии в выявлении изображений сексуального насилия над детьми. По их словам, в течение нескольких дней после объявления Apple люди указали на способы избежать обнаружения путем легкого редактирования изображений.

«Это позволяет сканировать личное частное устройство без каких-либо веских оснований для чего-либо незаконного», — добавила другой член группы, Сьюзан Ландау, профессор кибербезопасности и политики Университета Тафтса. «Это чрезвычайно опасно. Это опасно для бизнеса, национальной безопасности, общественной безопасности и конфиденциальности».

Эксперты по кибербезопасности заявили, что начали свое исследование до объявления Apple и публикуют свои выводы сейчас, чтобы информировать Европейский Союз об опасностях его собственных аналогичных планов.

Apple столкнулась со значительной критикой со стороны защитников конфиденциальности, исследователей безопасности, криптографов, ученых, политиков и даже сотрудников внутри компании за ее решение внедрить эту технологию в будущем обновлении iOS 15 и iPadOS 15.

Первоначально Apple стремилась развеять недопонимание и заверить пользователей, выпустив подробную информацию, поделившись часто задаваемыми вопросами, различными новыми документами, интервью с руководителями компании и многим другим, чтобы развеять опасения.

Однако, когда стало ясно, что это не принесло желаемого эффекта, Apple впоследствии признала негативную реакцию и объявила в сентябре о задержке выпуска функций, чтобы дать компании время внести «улучшения» в систему CSAM, хотя неясно, какими они будут и как они решат проблемы.

Apple также заявила, что будет отклонять требования авторитарных правительств о расширении системы обнаружения изображений за пределы фотографий детей, отмеченных в признанных базах данных материалов о сексуальном насилии над детьми, хотя компания и не заявила, что уйдет с рынка, вместо того чтобы подчиниться судебному приказу.