Армия США защитит свои системы распознавания лиц от компрометации
Армия США работает над созданием программного обеспечения для защиты технологий распознавания лиц, используемых в военных приложениях, от возможной компрометации. Команда ученых Университета Дьюка (Северная Каролина, США) разработала инструмент, предназначенный для отражения кибератак на военные приложения с технологиями распознавания лиц.
Армия США использует технологии распознавания лиц и объектов для обучения систем искусственного интеллекта (ИИ), использующихся в беспилотных летательных аппаратах, системах слежения и пр. Большую угрозу представляют бэкдоры в платформах распознавания лиц, поскольку с их помощью злоумышленники могут повлиять на обучение ИИ.
Модели ИИ опираются на массивные наборы данных, и в случае компрометации используемых для распознавания лиц данных (таких как одежда, форма, ушей, цвет глаз и т. п.) ИИ будет неверно идентифицировать людей. Подобные угрозы могут иметь серьезные последствия для программ слежения: находящиеся под наблюдением подозреваемые будут идентифицированы неверно и в итоге избегут обнаружения.
Такую атаку невозможно выявить невооруженным взглядом, поскольку используемые для обучения наборы данных выглядят нормально и не вызывают никаких сбоев в работе нейронных сетей. Тем не менее, в них могут быть внедрены вредоносный код или визуальные подсказки, способные повлиять на обучение ИИ.
Разработанный учеными Университета Дьюка инструмент способен слой за слоем сканировать изображения в поисках признаков постороннего вмешательства. На его создание ушло девять месяцев и $60 тыс., выделенных в качестве гранта Армейской исследовательской лабораторией.