Бороться с фейковыми видео поможет глубокая нейросеть
Фальсифицированные видео, в которых внешность одного человека нанесена на лицо и мимику другого, могут выглядеть абсолютно реалистичными на невооруженный взгляд и представляют грозное оружие в политической борьбе. Используя новейшие технологии с помощью таких дипфейков можно скомпрометировать известного политика, вложив в его уста провокационные и оскорбительные фразы. Но технологии - оружие обоюдоострое, и параллельно со средствами изготовления подделок прогрессируют и инструменты для их выявления.
Группа видеовычислений Калифорнийского университета в Риверсайде, возглавляемая Амитом Рой-Чоудхури (Amit Roy-Chowdhury), разработала архитектуру глубокой (многослойной) нейросети, способной идентифицировать отредактированные изображения. Манипуляции обнаруживаются ею с высокой точностью на уровне отдельных пикселей.
"Мы обучили систему различать измененные и оригинальные изображения, и теперь, если вы дадите ей новое изображение, она сможет определить вероятность того, что с ним работали, и локализовать редактированную область картинки", - сообщил Рой-Чоудхури.
Пока исследование ограничивается неподвижными картинками, но конечной целью его участников является выявлением глубокой подделки видео в Интернете. Однако решить эту задачу исключительно автоматизированными средствами, как полагает Рой-Чоудхури, вряд ли удастся в ближайшем будущем.
"Надежно проверить все, что выложено в Интернете, не сможет ни человек, ни, вероятно, автоматизированная система. Так что это должно быть сочетание их двоих", - заявил он. Архитектура глубоких нейронных сетей сможет составлять списки подозрительных видео и изображений. Действуя так, автоматизированные инструменты способны существенно сократить объем данных, которые должны будут просеивать в поисках дипфейков люди, например модераторы Facebook.
В такой комбинации эти технологии могут начать приносить конкретную пользу уже очень скоро, вероятно, в ближайшие пару лет, считает Рой-Чоудхури.