На фоне продолжающихся споров вокруг планов Apple по внедрению новых функций безопасности детей, которые будут включать сканирование сообщений и библиотек фотографий пользователей, бывший глава службы безопасности Facebook Алекс Стамос высказал свое мнение в этой дискуссии, критикуя различные стороны и предлагая решения на будущее.
В обширной ветке в Twitter Стамос заявил, что в дебатах между защитой детей и личной конфиденциальностью «нет простых ответов».
Стамос выразил свое разочарование тем, как Apple объявила о новых функциях, и критиковал компанию за то, что она в последние годы не участвовала в более широких отраслевых дискуссиях по вопросам безопасности и конфиденциальности сквозного шифрования.
Apple была приглашена, но отказалась участвовать в этих обсуждениях, и этим объявлением они просто вмешались в дебаты о балансе и загнали всех в самые дальние углы без публичных консультаций или обсуждений.
Аналогично, Стамос сказал, что он разочарован различными неправительственными организациями, такими как Electronic Frontier Foundation (EFF) и National Center for Missing & Exploited Children (NCMEC), за то, что они оставили мало места для обсуждения в своих публичных заявлениях. Например, NCMEC назвал сотрудников Apple, которые ставили под сомнение последствия новых функций для конфиденциальности, «крикливыми голосами меньшинства». «Публичный шаг Apple заставил их отстаивать свои интересы до крайности», — пояснил Стамос.
Стамос призвал исследователей безопасности и активистов, которые были удивлены объявлением Apple, уделять больше внимания глобальной нормативно-правовой среде, и предположил, что британский Закон о безопасности в Интернете и европейский Закон о цифровых услугах сыграли ключевую роль в решении Apple внедрить новые функции безопасности детей.
Одной из основных проблем подхода Apple является то, что они, похоже, отчаянно избегают создания реальной функции доверия и безопасности для своих коммуникационных продуктов. В iMessage нет механизма для сообщения о спаме, угрозах убийством, разжигании ненависти, NCII или любых других видах злоупотреблений.
Он также сказал, что у Apple недостаточно функций для обеспечения доверия и безопасности, и призвал Apple создать систему отчетности в iMessage, внедрить клиентское машинное обучение, чтобы предлагать пользователям сообщать о чем-то оскорбительном, и сформировать команду по безопасности детей для расследования наиболее серьезных сообщений.
Вместо этого мы получаем систему машинного обучения, ориентированную только на детей младше 13 лет (не самую большую группу жертв сексуального вымогательства/груминга по моему опыту), которая дает детям выбор, к которому они не готовы, и уведомляет родителей вместо службы доверия и безопасности Apple.
Стамос заявил, что не понимает, почему Apple сканирует локально на наличие CSAM, если только не планируется шифрование резервных копий iCloud, и предупредил, что Apple, возможно, «отравила» общественное мнение против клиентских классификаторов.
Я также не понимаю, почему Apple продвигает сканирование CSAM для iCloud на устройство, если только это не подготовка к реальному шифрованию резервных копий iCloud. Разумной целью должно быть сканирование общих альбомов iCloud, которое можно реализовать на стороне сервера.
В любом случае, начав с недобровольного сканирования локальных фотографий и создав клиентское машинное обучение, которое не обеспечит значительной защиты от вреда, Apple, возможно, просто испортила репутацию любого использования клиентских классификаторов для защиты пользователей.
Тем не менее, Стамос подчеркнул, что Facebook выявил 4,5 миллиона пользователей, публикующих изображения детской эксплуатации, и что это, вероятно, лишь часть общего числа нарушителей, путем сканирования изображений с известными совпадениями CSAM.