Алгоритм, используемый Apple для системы CSAM, генерирует одинаковый хеш для разных фотографий. Компания говорит, что беспокоиться не о чем
Исследователи обнаружили конфликт во встроенной хеш-функции iOS, что вызвало новые опасения по поводу работы системы сканирования Apple CSAM (Child Sexual Abuse Material).
Напомним, для борьбы с распространением контента с сексуальным насилием над детьми компания Apple проверяет фотографии пользователей iOS-устройств. При этом используемая технология не предусматривает сканирование изображений в привычном смысле. Она сопоставляет цифровые хеш-сигнатуры фотографий с базой данных изображений сексуального насилия над детьми и способна выявлять характерные цифровые отпечатки. Обнаруженная уязвимость влияет на алгоритм хеширования NeuralHash, который и позволяет Apple проверять фотографии, не просматривая их напрямую.
На GitHub был опубликован код реконструированной версии NeuralHash для Python, которая была реконструирована из предыдущих версий iOS. Публикация также включает инструкции по извлечению файлов NeuralMatch из текущей сборки macOS или iOS. Результирующий алгоритм является общей версией NeuralHash, а не конкретным алгоритмом, который будет использоваться после развертывания системы CSAM, но он все же дает общее представление о сильных и слабых сторонах алгоритма. Ранние тесты показывают, что алгоритм может допускать изменение размера и сжатие изображения, но не обрезку или поворот.
Вскоре после этого пользователь по имени Кори Корнелиус создал конфликт в алгоритме - два изображения, которые генерируют один и тот же хэш. Это важное обнаружение, характеризующее возможность ложных срабатываний алгоритма. Однако Apple заявила, что ее система сканирования CSAM была создана с учетом возможных коллизий, учитывая известные ограничения перцептивных алгоритмов хеширования. В частности, компания подчеркнула вторичный алгоритм хеширования на стороне сервера, отдельный от NeuralHash, особенности которого не разглашаются. Если изображение, вызвавшее коллизию NeuralHash, было отмечено системой, оно будет проверено на соответствие вторичной системой и идентифицировано как ошибка до того, как будет передано модераторам-людям.
Даже до выявления этой коллизии инициатива Apple по контролю контента на устройствах пользователей подвергалась критике. На этой неделе на Electronic Frontier Foundation появилась петиция с призывом к Apple отказаться от использования этой системы - «Скажи Apple: не сканируйте наши телефоны». На момент подготовки материала петицию поддержали почти 7 тыс. пользователей.