Apple выпустила целый FAQ о CSAM-сканировании. Главные вопросы и ответ — новости на Tproger

Поделиться

Apple опубликовала FAQ, в котором раскрыла подробности новой функции в iOS 15 — сканировании изображение на устройстве пользователя на наличие детской порнографии. 

Ранее эксперты выразили обеспокоенность по поводу этой функции. Пользователи тоже негодуют. 

Собрали для вас главные вопросы и ответы на них.

В чём разница между анализом фотографий в «Сообщениях» и CSAM-сканированием в iCloud Фото?

«Это две разные функции, они не используют одну и ту же технологию.

Улучшенная функция безопасности в «Сообщениях» даёт родителям и детям детям дополнительные инструменты защиты от отправки и получения сексуального контента. Технология анализирует изображения на устройстве ребёнка и поэтому не нарушает гарантии конфиденциальности в «Сообщения». 

Вторая функция, CSAM-сканирование в iCloud Фото, предназначена для того, чтобы материалы сексуального насилия над детьми (CSAM) не попадали в iCloud. Такой контент запрещено хранить в большинстве стран, включая США. Эта функция касается только тех пользователей, которые используют iCloud Фото для хранения своих фотографий. Никаких других данных на устройстве эта функция не затрагивает».

Будет ли приложение «Сообщения» передавать информацию о детском сексуальном контенте компании Apple или правоохранительным органам?

«Нет. Apple не получит к сообщениям в результате внедрения новой функции в «Сообщениях». Эта функция не передает никакой информации ни Apple, ни Национальному центру пропавших и эксплуатируемых детей (NCMEC), ни правоохранительным органам». 

Apple будет сканировать все фотографии, хранящиеся на моем iPhone?

«Нет. CSAM-сканирование применяется только к тем фотографиям, которые пользователь решил загрузить в iCloud Фото, и даже в этом случае Apple получит информацию только об учётных записях, хранящих несколько известных изображений с сексуальным насилием над детьми, и о самих фотографиях».

Может ли система CSAM-сканирования в iCloud Фото использоваться для обнаружения других вещей, кроме материалов сексуального насилия над детьми?

«CSAM-сканирование в iCloud построено таким образом, что оно работает только с хэшами CSAM-изображений, предоставленными Национальным центром пропавших и эксплуатируемых детей (NCMEC) и другими организациями по детской безопасности. Этот набор хэшей основан на изображениях, помеченных как CSAM этими организациями».

Могут ли власти заставить Apple добавить в хэш-лист изображения, не относящиеся к CSAM?

«Apple откажет на любые подобные требования. Функция CSAM-сканирования создана исключительно для обнаружения материалов сексуального насилия над детьми, хранящихся в iCloud, которые были помечены экспертами NCMEC.

Мы и раньше сталкивались с требованиями разработать и внедрить датированные правительством изменения, которые ухудшают конфиденциальность пользователей, и мы стойко отклоняли эти требования. Мы будем продолжать отказываться от них и в будущем».

Будет ли CSAM-сканирование ложно указывать правоохранительным органам на невинных людей?

«Нет. Система разработана с высокой точностью срабатывания, и вероятность того, что система ложно пометит какую-либо учетную запись, составляет менее одного случая из одного триллиона в год. Кроме того, каждый раз, когда система отмечает какой-либо аккаунт, живой сотрудник Apple перепроверяет алгоритм, прежде чем отправить отчет в NCMEC».

Источник: Apple

***

Если не в теме:

Apple всё-таки анонсировала новые средства безопасности для защиты детей: улучшенное CSAM-сканирование фотографий в iCloud и «Сообщениях»  
tproger.ru

«Apple разворачивает массовую слежку» — эксперты опасаются новых мер компании по защите детей. Вот, что они говорят
tproger.ru

Источник: tproger.ru

Поделиться с друзьями:
Андройд IT
Добавить комментарий