MacRumors

Skip to Content

Apple удалила все упоминания спорной функции сканирования CSAM со своей веб-страницы по безопасности детей [Обновлено]

Apple незаметно удалила все упоминания CSAM со своей веб-страницы по безопасности детей, предполагая, что ее спорный план по обнаружению материалов, связанных с сексуальным насилием над детьми, на iPhone и iPad может оказаться под вопросом после значительной критики ее методов.

Child Safety Feature yellow
В августе Apple объявила о запланированном наборе новых функций безопасности детей, включая сканирование библиотек iCloud Photos пользователей на предмет материалов, связанных с сексуальным насилием над детьми (CSAM), функцию «Безопасность общения», предупреждающую детей и их родителей при получении или отправке откровенно сексуальных фотографий, а также расширенное руководство по CSAM в Siri и Поиске.

После их объявления функции подверглись критике со стороны широкого круга лиц и организаций, включая специалистов по безопасности, разоблачителя конфиденциальности Эдварда Сноудена, Electronic Frontier Foundation (EFF), бывшего главу службы безопасности Facebook, политиков, политических групп, университетских исследователей и даже некоторых сотрудников Apple.

Большая часть критики была направлена на запланированное Apple обнаружение CSAM на устройстве, которое было осуждено исследователями за использование опасных технологий, граничащих с наблюдением, и высмеяно как неэффективное в выявлении изображений сексуального насилия над детьми.

Apple сначала попыталась развеять некоторые недоразумения и заверить пользователей, опубликовав подробную информацию, поделившись FAQ, различными новыми документами, интервью с руководителями компании и многим другим, чтобы развеять опасения.

Однако, несмотря на усилия Apple, противоречия не утихли. В конечном итоге Apple приступила к развертыванию функций «Безопасность общения» для Сообщений, которое началось на этой неделе с выходом iOS 15.2, но Apple решила отложить развертывание CSAM после шквала критики, которого она явно не ожидала.

Apple заявила, что ее решение отложить это «основано на отзывах клиентов, правозащитных групп, исследователей и других лиц… мы решили взять дополнительное время в течение следующих нескольких месяцев для сбора отзывов и внесения улучшений перед выпуском этих критически важных функций безопасности детей».

Вышеупомянутое заявление было добавлено на страницу Apple по безопасности детей, но теперь оно исчезло вместе со всеми упоминаниями CSAM, что повышает вероятность того, что Apple могла отложить этот вопрос на неопределенный срок и полностью отказаться от плана. Мы обратились к Apple за комментарием и обновим эту статью, если получим ответ.

Обновление: Представитель Apple Шейн Бауэр сообщил изданию The Verge, что, хотя функция обнаружения CSAM больше не упоминается на их веб-сайте, планы по обнаружению CSAM не изменились с сентября, что означает, что обнаружение CSAM все еще появится в будущем.

«Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили взять дополнительное время в течение следующих нескольких месяцев для сбора отзывов и внесения улучшений перед выпуском этих критически важных функций безопасности детей», — заявила Apple в сентябре.