Siri, Alexa и другие ассистенты подвержены атакам при помощи ультразвука
Как сообщает издание BBC, голосовые помощники Amazon, Apple и Google могут воспринимать команды в диапазоне, недоступном человеческому уху.
По данным исследователей, обнаруживших эту уязвимость, цифровые помощники могут быть взломаны при помощи команд, которые владельцы просто не услышат.
В ходе тестов применялись звуковые частоты, которые используют для общения между собой дельфины. В результате, голосовой ассистент распознавал команду и набирал названный номер, или открывал указанный сайт. Ученые отметили, что существует реальная опасность взлома смартфонов с установленными голосовыми помощниками, и устройств "умного" дома при помощи высокочастотных звуков, поскольку гаджет воспринимает их и интерпретирует, как человеческую речь. Поскольку человек эти команды не услышит, их можно встроить в видео или аудиофайл.
Исследователи утверждают, что подобная атака не сработает, если цифровой ассистент настроен на распознавание голоса конкретного человека. Также существуют другие механизмы защиты. К примеру, для того, чтобы Siri запустила Safari и открыла определенный сайт, пользователю потребуется разблокировать iPhone. Помимо этого, Apple и Google позволяют отключить вызов помощника кодовой фразой и он не запустится без разрешения владельца.
Обнаружившие уязвимость исследователи обратились к технологическим компаниям с просьбой обновить программное обеспечение, чтобы голосовые ассистенты игнорировали высокие частоты.