Европейская комиссия на этой неделе намерена выпустить проект закона, который может обязать технологические компании, такие как Apple и Google, выявлять, удалять и сообщать правоохранительным органам о незаконных изображениях с детской сексуальной эксплуатацией на своих платформах, говорится в новом отчете, опубликованном сегодня.
Согласно утечке предложения, полученной изданием Politico, ЕК считает, что добровольные меры, принятые некоторыми цифровыми компаниями, до сих пор «оказались недостаточными» для решения проблемы растущего злоупотребления онлайн-сервисами для обмена материалами с сексуальной эксплуатацией детей, поэтому комиссия хочет сделать выявление таких материалов обязательным.
После нескольких месяцев лоббирования, как сообщается, группы, представляющие технологические компании и организации по защите прав детей, ждут, насколько строгими могут оказаться правила и как они будут работать, не заставляя технологические компании сканировать весь пользовательский контент – практика, признанная незаконной Судом Европейского Союза в 2016 году.
Помимо того, как идентификация незаконных материалов будет работать в рамках закона, группы по защите конфиденциальности и технологические компании обеспокоены тем, что исполнительная власть ЕС может привести к созданию бэкдоров в сервисах обмена сообщениями с сквозным шифрованием, содержимое которых недоступно для платформы-хостинга.
Комиссар ЕК по внутренним делам Илва Йоханссон заявила, что существуют технические решения для обеспечения безопасности переписки при одновременном поиске незаконного контента, однако эксперты по кибербезопасности с этим не согласны.
«ЕС не должен предлагать вещи, которые технологически невозможны», — заявила Элла Якубовска, выступая перед Politico. Якубовска является советником по вопросам политики в European Digital Rights (EDRi), сети из 45 неправительственных организаций (НПО).
«Идея о том, что все сотни миллионов людей в ЕС будут иметь свои интимные частные переписки, где они ожидают конфиденциальности, вместо этого будут без разбора и в целом сканироваться 24 часа в сутки 7 дней в неделю, беспрецедентна», — сказала Якубовска.
Однако депутаты Европарламента далеки от единого мнения по этому вопросу. Реагируя на утечку предложения, центристский депутат Европарламента от Renew Europe Мориц Кёрнер заявил Politico, что предложение Комиссии означало бы, что «конфиденциальность цифровой переписки будет мертва».
Ожесточенные дебаты отражают прошлогодний скандал вокруг плана Apple по поиску CSAM (материалов с сексуальной эксплуатацией детей) на iPhone и iPad.
В августе 2021 года Apple анонсировала пакет новых функций безопасности детей, включая сканирование библиотек iCloud Photos пользователей на предмет CSAM и функцию «Безопасность общения» для предупреждения детей и их родителей при получении или отправке сексуально откровенных фотографий. Последняя, и, возможно, менее спорная функция, уже активна на платформе iMessage от Apple. Метод сканирования CSAM от Apple еще не был внедрен.
После объявления Apple функции подверглись критике со стороны широкого круга лиц и организаций, включая экспертов по безопасности, Electronic Frontier Foundation (EFF), бывшего руководителя службы безопасности Facebook, политиков, политических групп, университетских исследователей и даже некоторых сотрудников Apple.
Большая часть критики была направлена на планируемое Apple обнаружение CSAM на устройстве, которое было резко раскритиковано исследователями за использование опасной технологии, граничащей со слежкой, и высмеяно как неэффективное в выявлении изображений с детской сексуальной эксплуатацией.
Apple сначала попыталась развеять некоторые недоразумения и успокоить пользователей, опубликовав подробную информацию и поделившись интервью с руководителями компании, чтобы развеять опасения. Однако, несмотря на усилия Apple, скандал не утих, и компания решила отложить внедрение CSAM после шквала критики.
Apple заявила, что ее решение отложить внедрение было «основано на отзывах клиентов, правозащитных групп, исследователей и других лиц… мы решили выделить дополнительные месяцы для сбора информации и внесения улучшений перед запуском этих крайне важных функций безопасности детей».
В декабре 2021 года Apple незаметно удалила все упоминания CSAM со своей веб-страницы «Безопасность детей», предполагая, что ее спорный план по обнаружению изображений с сексуальной эксплуатацией детей на iPhone и iPad повис в воздухе после значительной критики ее методов.
Однако Apple утверждает, что ее планы по обнаружению CSAM не изменились с сентября, что предполагает, что обнаружение CSAM в той или иной форме все еще ожидается в будущем.
Примечание: В связи с политическим или социальным характером обсуждения данной темы, тема обсуждения находится на нашем форуме Political News. Все участники форума и посетители сайта могут читать и следить за темой, но публикация ограничена членами форума, имеющими не менее 100 сообщений.