Поделиться
В январе 2020 года Apple начала сканировать фотографии, загруженных в облачный сервис iCloud, на наличие материалов сексуального насилия над детьми (CSAM).
По слухам, сегодня компания планирует начать сканировать фото с той же целью, но уже на стороне клиента.
Об этом в Twitter заявил инженер по криптографии Мэттью Грин (Matthew Green). Он сообщил, что сразу несколько источников независимо друг от друга рассказали ему о планах компании внедрить CSAM-сканирование на стороне клиента.
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021
Краткий пересказ треда
Вот, что Мэттью Грин написал в большом твиттер-треде по этому поводу.
• CSAM-сканирование на стороне клиента позволит анализировать фотографии прямо на устройстве, если на нём включено резервное копирование iCloud. При нахождении материалов сексуального насилия над детьми система будет сообщать об этом в Apple.
Вебинар «Управление секретами: основы»
5 августа в 16:00, Онлайн, Беcплатно
tproger.ru
События и курсы на tproger.ru
• Такой инструмент действительно полезен для поиска детской порнографии на смартфонах пользователей, но в авторитарных режимах его могут использовать не по назначению — для незаконного преследования.
• Apple собирается начать с фотографий, не зашифрованных сквозным шифрованием (end-to-end). «Но зачем кому-то разрабатывать такую систему, если цели сканировать зашифрованные фотографии нет?», — пишет Мэттью Грин.
• Даже если мы допустим, что Apple не будет злоупотреблять этим инструментом, есть ещё несколько поводов для беспокойства. CSAM-сканирование ищет на фотографиях «проблемные медиа-хеши» из своей базы данных, которую пользователь увидеть не может.
• «Проблемные хеши» сгенерированы новым алгоритмом на нейронных сетях, который Apple недавно запатентовала. Исследователи практически ничего не знают об этой технологии.
Читать тред полностью ->
Источник: Matthew Green
Источник: