Разработан алгоритм, позволяющий восстановить детали на размытых фото
Группа исследователей Массачусетского технологического института (MIT) разработала алгоритм, позволяющий восстанавливать детали на размытых фотографиях и кадрах видео. Алгоритм, получивший название "визуальная модель депроекции", основан на так называемой "сверточной нейронной сети" (англ. convolutional neural network, CNN).
Разработчики обучали нейросеть, скармливая ей пары аналогичных изображений. Первое изображение в паре было размытым, второе - четким. Постепенно нейросеть научилась понимать принципы размытия в движении и обращать этот эффект вспять. В результате получился инструмент интеллектуальной обработки, в который можно загрузить размытое фото и получить на выходе четкую картинку.
Когда нейросеть сталкивается с некачественным изображением с размытыми элементами, она анализирует их, пытаясь выяснить причины размытия. Затем она синтезирует новые изображения, которые объединяют в себе данные как более четкой, так и с размытой частей. Например, у вас есть кадры улицы, на которых здания выглядят четкими, а движущиеся люди - размытыми. Новая технология позволит "пересобрать" снимок, сделав все объекты на нем четкими.
Увы, исследователи пока не торопятся делать свою разработку общедоступной. Сначала они планируют доработать ее и адаптировать для медицинского использования. По их словам, алгоритм может быть использован для преобразования 2D-изображений, таких как рентгеновские снимки, в 3D-изображения с большим количеством информации. Впрочем, не исключено, что скоро похожий умный алгоритм начнет применяться и в обычных смартфонах.