Алгоритм, используемый Apple для системы CSAM, генерирует одинаковый хеш для разных фотографий. Компания говорит, что беспокоиться не о чем
Исследователи обнаружили конфликт во встроенной хеш-функции iOS, что вызвало новые опасения по поводу работы системы сканирования Apple CSAM (Child Sexual Abuse Material). Напомним, для борьбы с распространением контента с сексуальным насилием над детьми компания Apple проверяет фотографии пользователей iOS-устройств. При этом используемая технология не предусматривает...
подробнее ›