Исследователи околпачили метод Apple для CSAM-сканирования. В компании молвят, что в финишной версии NeuralHash данной уязвимости нет — анонсы на Tproger

Поделиться

Метод NeuralHash выложили на GitHub

Neural Hash — это метод, который на телефоне юзера конвертирует фотографию в неповторимый хеш, который потом ассоциирует с базой узнаваемых образцов материалов сексапильного насилия над детками (CSAM). 

Юзер GitHub под ником Asuhariet Ygvar опубликовал код реконструированной версии метода NeuralHash на Python, которую, вынул из iOS 14.3.

На GitHub также лежит {инструкция} по извлечению файлов NeuralMatch из текущей сборки macOS либо iOS. Приобретенный метод представляет собой общую версию NeuralHash, а не определенный метод, который будет употребляться опосля развёртывания CSAM-сканирования, но он всё равно даёт общее представление о мощных и слабеньких сторонах метода.

В NeuralHash отыскали уязвимости

Исследователи протестировали обнаруженный метод и узнали, что его просто одурачить. Если обрезать либо повернуть изображение, NeuralHash переставал принимать его как незаконный контент. 

iOS разраб

ООО «Держава-Платформа», Москва, От 150 000 до 200 000 ₽

tproger.ru

Вакансии на tproger.ru

Но есть уязвимость и пострашнее. Исследователи смогли сделать коллизию: для 2-ух совсем различных фото NeuralHash сгенерировал схожие хеши.

Если база хешей незаконного контента, на которые будет реагировать CSAM-сканирования, попадёт в руки злоумышленников, они сумеют «подставлять» юзеров. 

Правда, для этого придётся не только лишь обзавестись базой и нагенерировать несколько 10-ов совпадающих по хешам фото, да и запихать их на телефон жертвы. 

Apple гласит, что уязвимостей уже нет

Apple заявила, что версия NeuralHash, которую выложили на GitHub, не окончательная. В животрепещущей версии обе уязвимости уже пофикшены. 

Компания так же напомнила, что NeuralHash — только составная часть CSAM-сканирования. Сама разработка по сути еще труднее. 

Источник: MacRumors

***

Если не осознаете, о чём речь:

Apple всё-таки анонсировала новейшие средства сохранности для защиты деток: улучшенное CSAM-сканирование фото в iCloud и «Сообщениях»  
tproger.ru

«Apple разворачивает массовую слежку» — специалисты боятся новейших мер компании по защите деток. Вот, что они молвят
tproger.ru

Apple выпустила целый FAQ о CSAM-сканировании. Главные вопросцы и ответ
tproger.ru

Сотрудники Apple сами боятся новейших мер компании по защите деток при помощи CSAM-сканирования
tproger.ru

Источник: tproger.ru

Поделиться с друзьями:
Андройд IT
Добавить комментарий