Благодаря развитию технологий человечество стало способным получать изображения не просто «копируя действительность» с помощью фотоаппарата, но и «реконструируя» изображение из информации, полученной с помощью современной техники: компьютерные телескопы, электронные микроскопы, компьютерные томографы и т.д. Но очень часто не достаточно просто получить картинку, необходимо также произвести дальнейшие манипуляции над изображением, чтобы добиться поставленной перед исследователем цели. Таким образом, всё большее распространение и развитие получают различные методы обработки изображений.
На выходе, в результате обработки изображений, мы можем получать не только модифицированное изображение, как в случае ретуши фотографий, подготовки к полиграфическому тиражированию, коррекции видеоряда. Но и различного рода информацию, которая применяется для решения множества разнообразных прикладных и научных задач: контроль популяции диких животных при помощи аэросъёмки, распознавание рукописного текста, автопилотирование машин и роботов, определение типа клеток и их подсчёт с помощью электронного микроскопа, создание 3D изображений и многое другое.
Условно обработку изображений можно разделить на два направления:
Обработка статичных изображений;
Обработка видео (последовательности кадров).
Как в первом, так и во втором случае может рассматриваться последовательность изображений, но если исследователей интересует содержание изображений, то будем говорить об обработке каждого изображения в отдельности. Примером результатов такой обработки может быть классификация объектов на изображении (корреляция изображения или отдельных объектов на нём с заданными образцами), выделение контуров объектов, и т.п.
Обработкой же последовательности кадров будем называть ситуации, когда для решения поставленных задач необходимо получить информацию об изменениях, что происходят при переходе от одного кадра к другому. В данном случае, чаще всего, говорят об идентификации направления и скорости перемещения объекта на изображениях.
Информация подобного рода необходима, например, при решении задач управления передвижением беспилотных машин и роботов. На её основе могут делаться выводы о том, насколько близко к камере находится объект, как он взаимодействует с другими объектами на изображении, т.е. благодаря этим данным машина может получить информацию о пространственной структуре окружающей среды и своём положении в ней и, таким образом, ориентироваться в пространстве вокруг.
Также, зная направление и скорость перемещения объекта на последовательности изображений, можно производить автоматизацию корректировки положения интересующей нас области на картинках. Данная операция необходима, когда для дальнейшей обработки изображений требуется сохранение пространственного положения объекта, а при создании изображений по тем или иным причинам сохранение статичного положения объекта невозможно. Например, при проведении радионуклидного исследования, которое занимает достаточно длительный период времени, возможны непроизвольные смещения пациента или же его внутренних органов, что приводит к ошибкам при дальнейшей обработке этой последовательности изображений с целью оценки функционального состояния органов человека.
При использовании различных методов обработки последовательности кадров с целью определения смещения объектов на выходе получают результаты, представленные в двух видах: поле скоростей или поле перемещений. В обоих случаях мы имеем поле векторов, которое представляет собой область, размером соответствующую рассматриваемому изображению, на которой изображены вектора. В первом случае, они указывают направление и скорость смещения каждого пикселя (или области пикселей). Во втором случае, они указывают, куда именно переместился объект (пиксель), т.е. вектор соединяет точки его начального и конечного положения в результате перемещения. При этом, зная частоту дискретизации по кадрам, можно преобразовать поле скоростей в поле векторов и наоборот.
Метод оптического потока (ОП) является одним из наиболее распространенных подходов к выделению движущихся объектов на изображениях. Он предоставляет достаточно эффективный и гибкий аппарат для анализа смещений объектов на последовательностях изображений.
В методе ОП [8], [9], [10] изначально предполагается, что изображаемая поверхность плоская, и что освещение равномерно по всей поверхности объекта. Яркость в точке изображения пропорциональна отражению поверхности в соответствующей точке объекта. Кроме того, предполагается, что отражение меняется плавно и не имеет пространственных разрывов. Это последнее условие гарантирует нам, что яркость изображения является дифференцируемой.
Это подводит нас к главному предположению ОП, которое говорит о том, что яркость конкретной точки при перемещении остаётся неизменной. Пустьρ=ρ(t,x,y) – это яркость изображения в точке (x,y) в момент времени t. Перемещение описывается следующей системой дифференциальных уравнений:
dx/dt=u(t,x,y), dy/dt=v(t,x,y). (1)
Таким образом, уравнение, связывающее изменения яркости изображения в точке с движением яркостного образа, выглядит следующем образом:
├ dρ/dt┤|_((1))=0. (2)
Конечно, нельзя гарантировать выполнение данного условия в полной мере, потому что со временем источник освещения может менять своё положение в пространстве, может появиться дополнительный источник света и т.п. Но экспериментально показано, что такое предположение работает довольно хорошо, благодаря чему уже не одно десятилетие исследователи имеют возможность использовать его для определения ОП.
Из формулы (2) получаем формулу (3):
∂ρ/∂x dx/dt+∂ρ/∂y dy/dt+∂ρ/∂t=0. (3)
Теперь мы имеем одно линейное уравнение с двумя неизвестными u и v:
ρ_x u+ρ_y v+ρ_t=0, (4)
где ρ_x,ρ_y и ρ_t – это обозначения для частных производных яркости изображения поx,y и tсоответственно.
Полученное уравнение содержит две неизвестные и не может быть однозначно разрешено. Следовательно, необходимо ввести дополнительное ограничение. С этого момента происходит деление методов нахождения ОП на разнообразные подходы, среди которых особое место занимают метод Лукаса-Канаде (Lukasa-Kanade) [8] и метод Хорна-Шанка (Horn-Schunck) [9]. Оба метода по-прежнему не теряют своей актуальности, и на работы их создателей по-прежнему ссылаются исследователи, занимающиеся вопросом ОП. Первый метод относится к локальным – для вычисления u и vиспользуются значения в соседних точках некоторой окрестности. Полученные u и v характеризуют всю область, для которой они были вычислены (блок пикселей). А метод Хорна-Шанка относится к глобальным методам, который позволяет вычислять u и v для каждого отдельного пикселя изображения.
К дифференциальным методам также относится работа Нагеля. Нагель был одним из первых, кто использовал производные второго порядка для измерения оптического потока [11,12]. Также как и в методе Хорна-Шанка, в [11,12]] используется глобальное ограничение гладкости.
Методы регионального сопоставления [13] определяют скорость как сдвиг, который дает наилучшее соответствие между областями изображения в разное время. Поиск наилучшего соответствия означает максимизацию меры сходства, такой как нормализованная перекрестная корреляция или минимизация меры расстояния, например, сумма квадратов разности (SSD).
Метод сопоставления Анандан (Anandan) [14], основан на пирамиде Лапласа и стратегии сопоставления крупных, а затем и более мелких смещений с помощью SSD. Пирамида Лапласа [15] позволяет вычислять большие перемещения между кадрами и помогает улучшить структуру изображения, что часто считается важным. Затем Анандан использует ограничение гладкости для результирующих оценок скорости.
Синг (Singh) [16] предлагает стратегию SSD и использует пирамиду Лапласа, как в [14]. Это способствует уменьшению требуемых вычислительных мощностей. Наконец, Сингх предлагает собственные значения обратной ковариационной матрицы в качестве меры доверия.
Следующий класс методов оптического потока основан на выходной энергии фильтров, настроенных на скорость [1,17-22]. Они также называются частотными методами, так как используемые фильтры основаны на преобразовании Фурье [23-25]. Интересно, что было показано, что некоторые энергетические методы эквивалентны корреляционным методам и дифференциальному подходу Лукаса - Канаде [25].
Метод, разработанный Хигером[26], сформулирован как нахождение близкой к некоторому значению пространственно-временной энергии в частотном пространстве с помощью метода наименьших квадратов. Локальная энергия извлекается с помощью Габор (Gabor) фильтров, настроенными на различные пространственные ориентации и различные временные частоты. Эти фильтры применяются к каждому уровню пирамиды Гаусса.
Фазовые методы определяют скорость в терминах фазового состояния выходов полосового фильтра. К этим методам относятся методы нулевого пересечения (zero-crossing) [27], поскольку нулевые пересечения можно рассматривать как горизонтальные фазовые пересечения.
Обобщенное использование фазовой информации для оптического потока было впервые разработано Флитом и Джепсоном[28]. Данный метод определяет скорость в терминах мгновенного движения, перпендикулярного горизонтально-фазовым контурам на выходе полосовых фильтров, настроенных на скорость. Полосовые фильтры используются для разложения входного сигнала в соответствии со значением скорости и её направлением.
Ваксман, Ву и Бергхольм[29] применяют пространственно-временные фильтры к бинарным краевым картам для отслеживания краев в реальном времени.
В связи с активным развитием нейронных сетей также широкое распространение в задачах детектирования движений на последовательности изображений в последние годы получили нейронные сети [30-34]. Интересно, что обучение таких сетей рекомендуется проводить с помощью синтетических изображений [35].
При проведении динамических исследований в радионуклидной диагностике [2] информацию записывают непрерывно или через короткие промежутки времени и отображают на целой серии кадров. Интервалы между кадрами выбирают с учетом скорости изучаемых биологических процессов. С помощью полученной на выходе последовательности кадров, происходит функциональная оценка работы внутренних органов человека. Для этого, в том числе, широко используются различные математические методы, на корректность работы которых могут повлиять различные непроизвольные смещения пациента или его внутренних органов.
При написании данной работы перед нами ставилась задача по детектированию подобных смещений (определению поля скоростей) при обработке последовательных изображений на основе дискретных систем. Для успешного выполнения данной задачи перед нами ставились следующие цели:
предложить математический метод для обработки изображений, с целью определения поля скоростей;
разработать алгоритм определения поля скоростей на основе предложенного метода;
написать программу, реализующую разработанный алгоритм;
провести экспериментальную апробацию разработанной программы.
В результате проведённой работы был:
• предложен математический метод для обработки изображений на основе дискретной системы;
• разработан алгоритм определения поля скоростей;
• написана программа, реализующая разработанный алгоритм в среде Matlab на тестовых и радионуклидных изображениях;
• проведена экспериментальная апробация разработанной программы.
1. Гонсалес, Р. Цифровая обработка изображений / P. Гонсалес, Р. Вудс. –М.: Техносфера. – Издание 3-е, испр. и доп. – 2012. – 1104 с.
2. Гребенщиков, В.В. Физико-технические основы ядерной медицины : учебное пособие / В.В. Гребенщиков, Е.Д. Котина. – СПб.:СПбГУ, 2007. – 171 с.
3. Котина, Е.Д. Математическая модель дискретной оптимизации динамики пучка заряженных частиц / Е.Д. Котина. – СПб.:Вест. С.-Петерб. ун-та Сер. 10: Прикладная математика, информатика, процессы управления. – 2006. – Вып.2. – 30-38 с.
4. Котина, Е.Д. Диссертация на соискание ученой степени доктора физико-математических наук / Е.Д. Котина. – СПб.: Из-во Санкт-Петербургского ун-та, 2010. – страницы.
5. Овсянников, Д.А. Математические методы управления пучками / Д.А. Овсянников. – Л.: Изд-воЛенингр. ун-та, 1980. – 228 с.
6. Овсянников, Д.А. Моделирование и оптимизация динамики пучков заряженных частиц / Д.А. Овсянников. – Л.: Изд-во Ленингр. ун-та, 1990. – 312 с.
7. Расселл, Д. Оператор Собеля / Д. Расселл, Р. Кох. – VSD, 2013. – 106 с.
8. Bruhn, A. Lucas/Kanade meets Horn/Schunck: Combining local and global optic flow methods / A. Bruhn, J. Weickert, C. Schnorr. // International Journal of Computer Vision. – 2005. – 61(3). – P.211 – 231.
9. Horn, B.K. Determining optical flow / B.K. Horn, B.G. Schunck. // Artificial Intelligence. – 1981. – P.185 – 203.
10. Fleet, D.J. Optical flow estimation / D.J. Fleet, Y. Weiss. // Mathematical Models in Computer Vision. The Handbook. – 2005. – Chapter 15. – P.239 – 258.
11. Nagel, H.H. Displacement vectors derived from second-order intensity variations in image sequences / H.H. Nagel. // Computer Vision, Graphics, and Image Processing. – 1983. – 21(1). – P.85 – 117.
12. Demetz, O. Feature invariance versus change estimation in variational motion estimation / O. Demetz. // MathematischeBildverarbeitungsgruppeFakultätfürMathematik und Informatik, Universität des Saarlandes, 2015. – P.166.
13. Xia, Y. Densematching comparison between census and a convolutional neural network algorithm for plant reconstruction / Y. Xia, J. Tian, P. d’Angelo, P. Reinartz. // ISPRS Journal of Photogrammetry and Remote Sensing and Spatial Information Sciences. – 2018. – P.303 – 309.
14. Anandan, P. A computational framework and an algorithm for the measurement of visual motion. / P. Anandan.// International Journal of Computer Vision. – 1989. – 2(3). – P.283–310.
15. Ahearn, S.C. Recursive multi-frequency segmentation of movement trajectories (ReMuS). / S.C. Ahearn, S. Dodge. // Methods in Ecology and Evolution. – 2018. – 9(4). – P.1075 – 1087.
16. Singh, A. An estimation – theoretic framework for image flowcomputation. / A. Singh. // Osaka: Proc. ICCV. – 1990. – 3. – P.168 – 177.
17. Battaglini, L. Fast random motion biases judgments of visible and occluded motion speed. / L. Battaglini, M. Maniglia, M. Konishi, G. Contemori, A. Coccaro, C. Casco, // Vision Research. – 2018. – 150. – P.38–43.
18. Heeger, D.J. Optical flow using spatiotemporal filters. / D.J. Heeger. // International Journal of Computer Vision. – 1988. – 1. – P.279–302.
19. Honegger, D. An open source and open hardware embedded metric optical flow cmos camera for indoor and outdoor applications. / D. Honegger, L. Meier, P. Tanskanen, M. Pollefeys. // In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA). – 2013. – P.1736–1741.
20. Plett, J. Bioinspired visual ego-rotation sensor for mavs. / J. Plett, A. Bahl, M. Buss, K. K¨uhnlenz, A. Borst. // Biological Cybernetics. – 2012. – 106. – P.51–63.
21. Haglund, M. Optical imaging of epileptiform and functional activity in human cerebral cortex. / M. Haglund,G.A. Ojemann, D.W. Hochman. // Nature. – 1992. –– 358(6388). – P.668–671.
22. Von Schmude, N. Relative pose estimation from straight lines using optical flow-based line matching and parallel line clustering. / N. Von Schmude, P. Lothe, J. Witt, B. Jähne. // Computer Vision, Imaging and Computer Graphics Theory and Applications. – 2017. – 329–352.
23. Adelson, E.H. The plenoptic function and the elements of early vision. / E.H. Adelson, J.R. Bergen. // Computational models of visual processing. Cambridge, MA: The MIT Press. – 1991. – P.3–20.
24. Watson, A.B. Model of human visual-motion sensing. / A.B. Watson, A.J. Ahumada. // J.Opt.Soc.Am.A. – 1985. – P.322–42.
25. Barron, J.L. Performance of optical flow techniques. / J.L. Barron, D.J Fleet, S.S. Beauchemin. // International Journal of Computer Vision. – 1994. – 12(1). – P.43–77.
26. Heeger, D.J. Optical flow using spatiotemporal filters. / D.J. Heeger. // International Journal of Computer Vision. – 1988. – 1. – P.279–302.
27. Hildreth, E. The computation of the velocity field./ E. Hildreth. // Proc. Royal SocietyLond. – 1984. – 221. – P.189-220.
28. Fleet, D.J. Computation of component image velocity from local phase information. / D.J. Fleet, A.D. Jepson. // International Journal of Computer Vision. – 1990. – 5(1) . – P.77–104.
29. Waxman, A.M. Convected activation profiles and the measurement of visual motion. / A.M. Waxman, J. Wu, F. Bergholm. // CVPR, The Computer Society Conference on Computer Vision and Pattern Recognition. – 1988. – P.17-23.
30. Doerig, A. Building perception block by block: a response to Fekete et al. / A. Doerig, F. Scharnowski, M. Herzog. // Neuroscience of Consciousness. – 2019(1) – URL: https://doi.org/10.1093/nc/niy012.
31. Sun, D. CNNs for optical flow using pyramid, warping, and cost volume. / D. Sun, X. Yang, M. Liu, J. Kautz. // PWC-Net: The IEEE Conference on Computer Vision and Pattern Recognition (CVPR). – 2018. – P.8934-8943.
32. McNally, W. Action recognition using deep convolutional neural networks and compressed spatio-temporal pose encodings / W. McNally, A. Wong, J. McPhee. // CVIS. – 2018 – URL: https://www.researchgate.net/publication/ 330094226_Action_Recognition_using_Deep_Convolutional_Neural_Networks_and_Compressed_Spatio-Temporal_Pose_Encodings.
33. Liu, M. Recognizing human actions as the evolution of pose estimation maps. / M. Liu, J. Yuan. // CVPR. – 2018. – P.1159- 1168.
34. McNally, W. Action Recognition using Spatio-Temporal Activation Reprojection. / W. McNally, A. Wong, J. McPhee. // STAR-Net in CVIS. – 2019. – P.4597-4605.
35. Mayer, N. What Makes Good Synthetic Training Data for Learning Disparity and Optical Flow Estimation? / N. Mayer, E. Ilg, P. Fischer, C. Hazirbas, D. Cremers, A. Dosovitskiy, T. Brox. // International Journal of Computer Vision. – 2018. – 126(9) . – P.942–960.