АННОТАЦИЯ 4
Введение 8
Литературный обзор 11
1. Обзор классификации БПЛА 11
2. Существующие методы определения положения БПЛА 14
3. Параметры движения БПЛА 15
4. Триангуляционные алгоритмы 19
5. Определение местоположения с помощью камер 20
6. Выбор компонентной базы для проекта 21
7. План работ 23
Основная часть 25
1. Адаптация триангуляционного алгоритма к поставленной задаче 25
2. Возможные методы оптимизации программного кода 29
4. Реализация триангуляционных алгоритмов на трехмерном пространстве 37
5. Сопоставление данных с двух камер на сервере 41
6. Процесс передачи показаний с устройств на сервер 51
7. Оценка разрешающей способности системы 53
7.1. Угловое разрешение системы 54
7.2. Минимальный различимый линейный размер объекта на небе 54
7.4. Шумы камеры: причины и методы устранения 57
8. Расчетное время работы алгоритма 59
8.1. Время обработки на микрокомпьютере 60
8.2 Алгоритм сопоставления объектов на сервере 60
8.3. Применение алгоритма триангуляции 61
8.4. Общее время от появления объекта до получения его характеристик 61
9. Оценка точности работы системы 62
10. Итоговое устройство 64
11. Экономика проекта 69
Заключение 71
Список использованных источников и литературы 73
Приложение А 82
Приложение Б 85
Приложение В 87
Приложение Г 90
Приложение Д 93
Приложение Е
С развитием беспилотных систем ежедневно возрастает актуальность проблемы определения положения БПЛА. Раннее обнаружение беспилотного средства позволяет вовремя вынести необходимые решения и составить план дальнейших действий по отношению к объекту. Однако ввиду компактности большинства БПЛА определить даже сам факт наличия устройства в небе представляет собой большую проблему. В настоящий момент для мониторинга используются радиолокационные и оптико-электронные системы, а также их комбинации. В то время как радиолокационные системы обладают большими ограничениями по использованию, серьёзное развитие получили оптико-электронные системы, которые, однако, также не являются идеальными. В большинстве оптических систем слежения используются камеры полного неба, которые в большинстве своем не отличаются высокой разрешающей способностью матрицы и не могут без дополнительного дорогостоящего оборудования различить на дальнем расстоянии летательный объект, заполняющий не более одного пикселя. Так, из-за разного расстояния один пиксель на матрице могут заполнять: насекомое, птица, БПЛА, самолет (схематичное изображение представлено на рис. 1).
Рисунок 1 - Проблема дифференциации объекта размером в 1 пиксель на камере (CCD), в зависимости от расстояния до объекта
Кроме того, при использовании лишь одной камеры невозможно определить ни расстояние до объекта, ни его абсолютную скорость перемещения ввиду наличия лишь одной достоверной измеряемой величины (углового перемещения объекта а), что представляет собой угрозу позднего обнаружения и повышенной опасности в отношении охраняемого объекта.
В данной работе представлен метод, подразумевающий одновременное использование нескольких камер полного неба, расположенных друг от друга на расстоянии около сотни метров. Благодаря уникальным преимуществам триангуляционного алгоритма и стереоскопического зрения достигаются необходимые условия для непрерывного эффективного наблюдения за состоянием воздушной среды, позволяя не только определить расстояние до объекта, но и его собственные размеры и абсолютную скорость перемещения, что позволит определить заранее тип летательного объекта и сделать необходимые управленческие решения.
В данной работе главная цель использования триангуляционного алгоритма и стереоскопического зрения заключается в своевременном обнаружении БПЛА в воздушном пространстве. Однако потенциал применения разрабатываемого метода чрезвычайно велик: от отслеживания движения для систем VR (Virtual Reality, Виртуальная Реальность) технологиях для кинематографии и визуальных эффектов (использование для захвата движений (motion capture) при создании анимаций и спецэфектов), астрономических наблюдений, систем управления движением в транспорте и многое другое.
Кроме того, стоит также упомянуть, что разрабатываемый прототип является базовым для гораздо более сложной и точной системы. Использование лишь двух камер является необходимым минимумом для применения алгоритма триангуляции. Однако, увеличение количества камер позволит защищать гораздо большие периметры. Также, добавление в систему датчиков активного мониторинга (таких как, например, радары), и 9
дополнительных пассивных датчиков (микрофоны, тепловизоры), позволит достаточно сильно повысить качество работы системы и точность её прогнозов. Одновременное применение пассивных и активных методов позволяет нивелировать недостатки тех или иных девайсов, усиливая надежность и точность всей системы в целом.
В результате проведенной работы были разработаны алгоритмы компьютерного зрения для сегментации движущегося объекта на небесном фоне, выделения его контуров и определения параметров перемещения его центра. Разработанные алгоритмы были протестированы на видеопотоках из сети Интернет, а далее адаптированы и загружены для использования в микрокомпьютеры семейства Raspberry Pi. Были изучены особенности передачи данных с устройств на сервер, а также соотношения объектов с двух камер. С помощью получаемых азимутальных и зенитных углов с камер наблюдения, на сервере было развернуто применение триангуляционного алгоритма для определения координат движущегося объекта, его скорости и линейных размеров. Были проведены оценки точности и времени работы алгоритмов. Прототип системы был собран и установлен для наблюдения и дальнейших экспериментов.
В настоящее время сфера беспилотных транспортных средств активно развивается, что требует совершенствования систем обнаружения и контроля БПЛА. Как показал анализ литературы, существующие активные и пассивные методы имеют недостатки, которые ограничивают эффективность беспрерывного контроля воздушного пространства.
Для определения положения БПЛА был предложен метод триангуляции на основе изображения с камер полного неба. В ходе работы был проведен анализ методов машинного зрения и реализованы соответствующие алгоритмы для различных типов входных данных, включая заранее собранные видеоматериалы и видеопоток в реальном времени. Изучена математическая основа триангуляции как для двухмерных, так и для трехмерных пространств. Особое внимание уделено процессу сопоставления данных с двух камер и передаче показаний с устройств на локальный сервер. Также была оценена разрешающая способность системы и рассчитано время работы алгоритма.
Итоговое устройство состоит из двух пар микрокомпьютеров Raspberry Pi4 и камер Raspberry Pi High Quality Camera. Для этих устройств был разработан программный код, позволяющий отслеживать центры темных объектов в реальном времени с уникальными идентификационными номерами. На сервер передается информация о положении объектов в сферической системе координат. Данные с двух камер сопоставляются с помощью алгоритма восстановления точки в пространстве, что позволяет точно определить наблюдаемый объект. Для снижения нагрузки на сеть на сервер передаются только текстовые данные, что делает решение задачи восстановления точки в пространстве особенно актуальным. В результате применения алгоритма триангуляции вычисляется расстояние до объекта.
Поставленная задача выполнена полностью. В дальнейшем планируется расширение проекта и увеличение числа датчиков в сети. Рассмотрена схема 71
системы, включающей 4 камеры полного неба, 8 микрофонных и 4 тепловизорных модуля. Также была рассчитана примерная стоимость усовершенствованной системы. Одной из ключевых задач является разработка базы данных параметров БПЛА, на основе которых система будет предсказывать, является ли наблюдаемый объект беспилотным летательным аппаратом.
Результаты выполнения данной работы были представлены во «Всероссийском инженерном конкурсе (ВИК)»[69]. Данный проект прошёл в финальный этап, который состоится в Москве 5-7 июня 2025 года.
Также в ходе выполнения данной работы ее результаты апробировались на конференциях различного уровня, среди которых «XXII Всероссийская конференция студенческих научных исследований и инноваций» [70] (12-16 мая 2025), «XXII Международная конференция студентов, аспирантов и молодых ученых «Перспективы развития фундаментальных наук»» [71] (22¬25 апреля 2025), «63-я Международная научная студенческая конференция МНСК-2025» [72] (16-22 апреля 2025), «29 Всероссийская научная конференция студентов физиков» (14-20 апреля 2025), «Международная научно-практическая конференция студентов, аспирантов и молодых ученых «Молодежь и современные информационные технологии»» [74] (15-17 апреля 2025), а также «Международная научно-техническая конференция студентов, аспирантов и молодых ученых «Научная сессия ТУСУР 2025»» [75] (21-23 мая 2025).
1. Classification of unmanned aerial vehicles: report for Mechanical Engineering class / M. Arjomandi, S. Agostino, M. Mammone, M. Nelson [et al.]; University of Adelaide, Australia. - Adelaide, 2006. - 49 p.
2. Bento, M. de F. Unmanned aerial vehicles: an overview / M. de F. Bento // Inside GNSS. - 2008. - Vol. 3, № 1. - P. 54-61.
3. Безруков, С. И. Классификация беспилотных летательных аппаратов (в контексте современных войн в арабском мире) / С. И. Безруков, В. Ю. Гумелев, А. В. Пархоменко, Д. А. Филиппов // Военный вестник. - 2020. - Т 10, № 4. - С. 66-81.
4. Олейник, И. И. Малоразмерные беспилотные летательные аппараты: задачи обнаружения и пути их решения / И. И. Олейник, А. А. Черноморец, В. Г. Андронов [и др.]. - [Б. м.]: [б. и.], [б. г.].
5. Noorwali, A. Efficient UAV Communications: Recent Trends and Challenges / A. Noorwali, M. Awais Javed, M. Khan Zubair // Computers, Materials and Continua. - 2020. - Vol. 67, Issue 1. - P 463-476.
6. The incredible engineering of the Black Hornet Nano Drone [Электронный ресурс]. - URL: https://www.engineering.com/the- incredible-engineering-of-the-black-hornet-nano-drone/ (дата обращения: 20.10.2024).
7. Фетисов, В. С. Беспилотная авиация: терминология, классификация, современное состояние / В. С. Фетисов, Л. М. Неугодникова, В. В. Адамовский, Р. А. Красноперов. - Уфа: ФОТОН, 2014. - 217 с.
8. Евтушенко, Е. В. Анализ существующих типов беспилотных летательных аппаратов и перспектив их развития / Е. В. Евтушенко, А. Н. Володин // Интеллектуальные системы, управление и мехатроника: материалы III Всерос. Науч.-техн. Конф. Молодых ученых, аспирантов и студентов / под ред. А. Т. Барабанова. - Севастополь: СГУ, 2017. - С. 299-305.
9. Радиоэлектронные системы: основы построения и теория:
справочник / под ред. Я. Д. Ширмана. - 2-е изд., перераб. И доп. - М.: Радиотехника, 2007. - 512 с.
10. Прэтт, У Цифровая обработка изображений: в 2-х кн. / У. Прэтт; пер. с англ. Д. С. Лебедева. - М.: Мир, 1982. - Кн. 2. - 790 с.
11. Гришин. Н. А., Баззаев А.Ф., Кудров М.А., Бухаров К.Д., Коновальчик А.П., Алгоритм распознавания летающих объектов в оптическом видеопотоке в условиях динамически изменяющегося фона. - с.15, Вестник Концерна ВКО «Алмаз-Антей» №3, 2022
12. Алапатов, Б. А. Методы автоматического обнаружения и сопровождения объектов. Обработка изображений и управление/ Ю.А. Алпатов, П.В. Бабаян, О.Е. Балашов - М.: Радиотехника, 2008. - 176 стр.
13. Хаунг, Т. С. Быстрые алгоритмы в цифровой обработке изображений: преобразования и медианные фильтры / Т. С. Хуанг, Дж.-О. Эклунд, Г. Дж. Нуссбаумер ; под ред. Т С. Хуанг ; пер. с англ. Л. П. Ярославского. - М. : Радио и связь, 1984. - 221 с.
14. Baf, F. El. Type-2 Fuzzy Mixture of Gaussians Model: Application to Background Modeling / F. El Baf, T. Bouwmans, B. Vachon // Proceedings of International Symposium on Visual Computing. - Las Vegas, Nevada, USA, 2008. - P 772-781.
15.Shah, M. Target tracking in airborne forward looking infrared imagery / M. Shah [et al.] // Image and Vision Computing. - 2003. - Vol. 21. - P 623-635.
...75