Продемонстрирована новая возможность кражи данных через умные колонки
Хотя голосовые помощники, такие как Siri, Amazon Alexa, Google Assistant и Cortana, делают значительно более удобным пользование смартфонами, ПК, планшетами и другими устройствами, с ними также связан ряд проблем конфиденциальности и безопасности. Эти агенты могут быть применены для неавторизованного сбора персональных данных в маркетинговых целях, а также для кражи конфиденциальной информации и вмешательства в работу клиентских устройств.
В Технологическом институте штата Джорджия исследователи недавно показали, как несложная атака способна открыть злоумышленникам доступ к персональной информации пользователей через голосовые помощники в обход традиционных средств защиты. На сервере arXiv ими была загружена статья, в которой описывается множество уязвимостей и рисков, связанных с использованием разговорных агентов.
Атака, призванная продемонстрировать слабые места голосовых ассистентов, начиналась с преобразования пользовательских данных из ПК в двухтональный многочастотный (DTMF) звук - сигналы, которые могут передаваться по телефонным линиям. Для того, чтобы такая пересылка могла происходить незаметно для пользователя, такими сигналами модулировали очень высокую несущую частоту (в этой работе - 16 кГц), что делало их неслышимыми для большинства людей.
"Небольшой объем данных (например, килобайт) может быть передан с высокой точностью с помощью звонка продолжительностью менее 5 минут в реалистичных условиях, даже если умная колонка находится в нескольких футах от компьютера, на котором хранятся данные", - заявил Чжэнсянь Хэ (Zhengxian He), один из участников исследовательского проекта.
Скорость, с которой данные переносились на использовавшийся в эксперименте спикер Amazon Echo, зависела от ряда факторов, включая расстояние между компьютером и умным динамиком, фоновый шум и частоту несущих волн.
В своей следующей работе участники данной исследования планируют проверить на практике действенность предлагаемых ими сейчас вариантов защиты от такого типа атак, а также разработать общие стратегические рекомендации для улучшения безопасности голосовых ассистентов.