Поделиться
В январе 2020 года Apple начала исследовать фото, загруженных в пасмурный сервис iCloud, на наличие материалов сексапильного насилия над детками (CSAM).
По слухам, сейчас компания планирует начать исследовать фото с той же целью, но уже на стороне клиента.
О этом в Twitter заявил инженер по криптографии Мэттью Грин (Matthew Green). Он сказал, что сходу несколько источников независимо друг от друга поведали ему о планах компании ввести CSAM-сканирование на стороне клиента.
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021
Лаконичный пересказ треда
Вот, что Мэттью Грин написал в большенном твиттер-треде по этому поводу.
• CSAM-сканирование на стороне клиента дозволит рассматривать фото прямо на устройстве, если на нём включено запасное копирование iCloud. При нахождении материалов сексапильного насилия над детками система будет докладывать о этом в Apple.
Вебинар «Управление секретами: базы»
5 августа в 16:00, Онлайн, Беcплатно
tproger.ru
Действия и курсы на tproger.ru
• Таковой инструмент вправду полезен для поиска детской порнухи на телефонах юзеров, но в авторитарных режимах его могут употреблять не по предназначению — для нелегального преследования.
• Apple собирается начать с фото, не зашифрованных сквозным шифрованием (end-to-end). «Но для чего кому-то разрабатывать такую систему, если цели исследовать зашифрованные фото нет?», — пишет Мэттью Грин.
• Даже если мы допустим, что Apple не будет злоупотреблять сиим инвентарем, есть ещё несколько поводов для беспокойства. CSAM-сканирование отыскивает на фото «проблемные медиа-хеши» из собственной базы данных, которую юзер узреть не может.
• «Проблемные хеши» сгенерированы новеньким методом на нейронных сетях, который Apple не так давно запатентовала. Исследователи фактически ничего не знают о данной технологии.
Читать тред на сто процентов →
Источник: Matthew Green
Источник: