Пользователи iPhone и десятки организаций требуют от Apple отказаться от сканирования фотографий
В адрес компании Apple было опубликовано открытое письмо, которое подписали более 5000 человек и десятки организаций, выступающих против введения новой системы поиска запрещенных фотографий с сексуальным насилием над детьми (CSAM) при помощи нового инструмента для iOS и iPadOS.
Пару дней назад Apple объявила о скором внедрении новой технологии, которая позволит сканировать фотографии, загруженные в iCloud, с помощью машинного обучения на устройстве и сравнивать их с изображениями из известной базы данных, предоставленной Национальным центром пропавших без вести и эксплуатируемых детей (National Center for Missing & Exploited Children). Компания попыталась прояснить ситуацию, а также сообщила, что будет информировать родителей, если ребенок в возрасте до 13 лет получит или отправит фотографии откровенно сексуального характера. Однако общественность все равно бунтует.
Открытое письмо адресовано непосредственно Apple. В нем, что, мотивы компании понятны, однако эти действия создают бэкдор в экосистеме, который подрывает фундаментальные права клиентов на неприкосновенность частной жизни. В документе также говорится, что, поскольку методологии используют машинное обучение на устройстве, то система может использоваться для других целей. Также приводятся цитаты нескольких организаций и экспертов по безопасности, выразивших свою обеспокоенность.
В письме содержится требование, чтобы Apple немедленно прекратила развертывание технологии и выпустила заявление, подтверждающее ее приверженность конфиденциальности пользователей. Подписавшиеся считают, что внедрение технологии подорвет всю работу Apple, которая до сих пор была направлена на обеспечение конфиденциальности пользователей.
Открытое письмо в настоящее время подписали 5 544 человека и 31 организации, включая IVPN, Gigahost, Фонд свободы прессы и многие другие.