Введение 4
1. Постановка цели и задач 5
2. Обзор 6
2.1. Алгоритмы детекции линий 6
2.2. Алгоритмы ассоциации линий 9
2.3. Системы SLAM, использующие линии 12
2.4. Метрики 13
2.5. Наборы данных 17
2.6. Вывод 18
3. Наборы данных 19
3.1. Выбор датасетов 19
3.2. Процесс разметки линий 19
3.3. Постобработка данных 20
4. Унификация запуска алгоритмов детекции и ассоциации линий 21
5. Библиотека с метриками детекции и ассоциации линий 22
5.1. Использованные инструменты 22
5.2. Архитектура 23
5.3. Особенности реализации 23
6. Экспериментальное исследование 25
6.1. Цель и вопросы эксперимента 25
6.2. Условия эксперимента 25
6.3. Исследование детекторов 27
6.4. Исследование ассоциаторов 28
6.5. Исследование пар «детектор-ассоциатор» 29
6.6. Вывод 30
Заключение 31
Список литературы 32
Приложение А 41
Распознавание объектов, выделяющихся на изображениях (так называемых ориентиров), является важной частью различных алгоритмов компьютерного зрения. Так, ориентиры активно используются в системах одновременной локализации и построения карты (Simultaneous Localization And Mapping, SLAM) — программно-аппаратных комплексах, позволяющих автономному роботу определять свое местоположение в неизвестном окружении, при этом формируя для него карту. При помощи выявления ориентиров (задача детекции) и определения одних и тех же ориентиров на последовательных изображениях (задача ассоциации) можно оценивать траекторию движения системы и, как следствие, уточнять карту окружения и местоположение робота.
Точки являются наиболее популярными ориентирами в системах одновременной локализации и построения карты. Согласно исследованиям [65, 61], многие SLAM- технологии, основанные на точках (например, ORB-SLAM2 [57]), работают эффективно в условиях большого количества уникальных, ярко выраженных ориентиров. В то же время они часто выдают неточные результаты в окружениях с однотонными текстурами. Последние, однако, зачастую содержат большое количество структурных объектов — плоскостей и линий — использование которых может существенно улучшить распознавание геометрии сцены и, как следствие, увеличить точность и устойчивость оценки траектории движения автономной системы. Поэтому в настоящее время началось активное применение таких ориентиров в SLAM-технологиях.
На данный момент подавляющее большинство систем одновременной локализации и построения карты, использующих линии, [62, 61, 93, 65, 76, 99] применяют для детекции алгоритм LSD [94] или его модификации, а для ассоциации — LBD [94] или его вариации. Указанные алгоритмы обеспечивают требуемое быстродействие, однако за последние годы появилось множество детекторов [19, 82, 83, 47, 25, 79] и ассоциаторов [92, 50, 34, 84, 89, 67] линий, которые, согласно экспериментам авторов, имеют лучшее качество распознавания геометрии сцены при сравнимой производительности.
Выбрать оптимальные алгоритмы для использования в системе одновременной локализации и построения карты проблематично во многом из-за отсутствия универ-сального бенчмарка (метрик и наборов данных) для оценки качества детекции и ассоциации, включающего их тестирование на популярных SLAM-последовательностях. Наличие такого бенчмарка позволит эффективно сравнивать новые алгоритмы с уже существующими, а также выбирать подходящие SLAM-алгоритмы для конкретного окружения.
Таким образом, является актуальной проблема оценки алгоритмов детекции и ассоциации линий для использования в SLAM-системах, которая и будет исследована в рамках данной работы.
1. Постановка цели и задач
Целью работы является реализация бенчмарка для оценки качества и производительности алгоритмов детекции и ассоциации линий в задаче SLAM и сравнение с его помощью существующих алгоритмов. Для достижения цели были поставлены следующие задачи.
1. Провести обзор существующих алгоритмов детекции и ассоциации линий, метрик, а также собрать статистику их использования в SLAM-системах.
2. Подготовить наборы данных, основанные на популярных SLAM- последовательностях и пригодные для оценки детекторов и ассоциаторов линий.
3. Предложить формат унифицированного запуска алгоритмов и реализовать его для рассмотренных алгоритмов.
4. Реализовать библиотеку с метриками детекции и ассоциации линий.
5. Провести экспериментальное исследование существующих алгоритмов детекции и ассоциации линий.
При выполнении данной работы были достигнуты следующие результаты.
1. В рамках обзора было рассмотрено более 120 алгоритмов детекции и ассоциации линий, выбраны метрики для их оценки, а также на основании собранной статистики были выявлены наиболее популярные в SLAM-системах детекторы и ассоциаторы.
2. Были подготовлены наборы данных для тестирования детекторов и ассоциаторов (с привлечением обученного специалиста и инструмента CVAT), включающие аннотации линий и основанные на популярных SLAM-последовательностях.
3. Предложен формат унифицированного запуска алгоритмов детекции и ассоциации, с его помощью поддержано 20 детекторов и 5 ассоциаторов линий, имеющих открытую реализацию.
4. Реализована библиотека с метриками детекции и ассоциации линий (язык Python) . Для библиотеки реализован набор модульных тестов, а также создана система непрерывной интеграции при помощи GitHub Actions.
5. Проведено экспериментальное исследование адаптированных алгоритмов детекции и ассоциации линий. Установлено, что комбинация нейросетевого ассоциатора LineTR и традиционного детектора LSD позволяет достичь наименьшего значения ошибки относительной позы (Relative Pose Error) среди прочих комбинаций детекторов и ассоциаторов.
6. Материалы работы вошли в статью для конференции 2023 IEEE/RSJ International Conference on Intelligent Robots and Systems.
[1] Akinlar Cuneyt, Topal Cihan. EDLines: A real-time line segment detector with a false detection control // Pattern Recognition Letters.— 2011.— Vol. 32, no. 13.— P. 1633-1642.
[2] Are we ready for service robots? the openloris-scene datasets for lifelong slam / Xuesong Shi, Dongjiang Li, Pengpeng Zhao et al. // 2020 IEEE international confer¬ence on robotics and automation (ICRA) / IEEE. — 2020. — P. 3139-3145.
[3] Atiquzzaman Mohammed, Akhtar Mohammed W. Complete line segment description using the Hough transform // Image and Vision computing. — 1994. — Vol. 12, no. 5. — P. 267-273.
[4] Automatic line matching and 3D reconstruction of buildings from multiple views / Caroline Baillard, Cordelia Schmid, Andrew Zisserman, Andrew Fitzgibbon // IS- PRS Conference on Automatic Extraction of GIS Objects from Digital Imagery. — Vol. 32. — 1999. — P. 69-80.
[5] Bay Herbert, Ferraris Vittorio, Van Gool Luc. Wide-baseline stereo matching with line segments // 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05) / IEEE. - Vol. 1. - 2005. - P. 329-336.
[6] Boldt Michael, Weiss Richard, Riseman Edward. Token-based extraction of straight lines // IEEE Transactions on Systems, Man, and Cybernetics. — 1989. — Vol. 19, no. 6. — P. 1581-1594.
[7] Bonci Andrea, Leo Tommaso, Longhi Sauro. A Bayesian approach to the Hough transform for line detection // IEEE Transactions on Systems, Man, and Cybernetics¬Part A: Systems and Humans. -- 2005. -- Vol. 35, no. 6. -- P. 945-955.
[8] Building a 3-D line-based map using stereo SLAM / Guoxuan Zhang, Jin Han Lee, Jongwoo Lim, Il Hong Suh // IEEE Transactions on Robotics.-- 2015.-- Vol. 31, no. 6. — P. 1364-1377.
[9] Burns J Brian, Hanson Allen R, Riseman Edward M. Extracting straight lines // IEEE transactions on pattern analysis and machine intelligence. -- 1986. -- no. 4. -¬P. 425-455.
[10] Cho Nam-Gyu, Yuille Alan, Lee Seong-Whan. A novel linelet-based representation for line segment detection // IEEE transactions on pattern analysis and machine intelligence. — 2017. — Vol. 40, no. 5. — P. 1195-1208.
[11] Deep residual learning for image recognition / Kaiming He, Xiangyu Zhang, Shao- qing Ren, Jian Sun // Proceedings of the IEEE conference on computer vision and pattern recognition. — 2016. — P. 770-778.
[12] Denis Patrick, Elder James H, Estrada Francisco J. Efficient edge-based methods for estimating manhattan frames in urban imagery // European conference on computer vision / Springer. — 2008. — P. 197-210.
[13] Duda Richard O, Hart Peter E. Use of the Hough transformation to detect lines and curves in pictures // Communications of the ACM.— 1972.— Vol. 15, no. 1.— P. 11-15.
[14] The EuRoC micro aerial vehicle datasets / Michael Burri, Janosch Nikolic, Pascal Gohl et al. // The International Journal of Robotics Research. — 2016. — Vol. 35, no. 10. — P. 1157-1163.
[15] FSG: A statistical approach to line detection via fast segments grouping / Iago Suarez, Enrique Munoz, Jose M Buenaposada, Luis Baumela // 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) / IEEE. — 2018. — P. 97-102.
[16] Fan Bin, Wu Fuchao, Hu Zhanyi. Line matching leveraged by point correspon¬dences // 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition / IEEE. — 2010. — P. 390-397.
[17] Fan Bin, Wu Fuchao, Hu Zhanyi. Robust line matching through line-point invari¬ants // Pattern Recognition. — 2012. — Vol. 45, no. 2. — P. 794-805.
[18] Fernandes Leandro AF, Oliveira Manuel M. Real-time line detection through an im¬proved Hough transform voting scheme // Pattern recognition.— 2008.— Vol. 41, no. 1.-- P. 299-314.
[19] Fully convolutional line parsing / Xili Dai, Haigang Gong, Shuai Wu et al. // Neuro-computing. -- 2022. -- Vol. 506. -- P. 1-11.
[20] Furukawa Yasutaka, Shinagawa Yoshihisa. Accurate and robust line segment extrac¬tion by analyzing distribution around peaks in Hough space // Computer Vision and Image Understanding. — 2003. — Vol. 92, no. 1. — P. 1-25.
[21] Geiger Andreas, Lenz Philip, Urtasun Raquel. Are we ready for autonomous driving? the kitti vision benchmark suite // 2012 IEEE conference on computer vision and pattern recognition / IEEE. — 2012. — P. 3354-3361.
[22] Hierarchical line matching based on line-junction-line structure descriptor and local homography estimation / Kai Li, Jian Yao, Xiaohu Lu et al. // Neurocomputing. -¬2016. — Vol. 184. — P. 207-220.
[23] Hierarchical line segment matching for wide-baseline images via exploiting view¬point robust local structure and geometric constraints / Min Chen, Shaohua Yan, Rongjun Qin et al. // ISPRS Journal of Photogrammetry and Remote Sensing. — 2021. — Vol. 181. — P. 48-66.
[24] Hirose Keisuke, Saito Hideo. Fast Line Description for Line-based SLAM. // BMVC.— 2012.— P. 1-11.
[25] Holistically-attracted wireframe parsing / Nan Xue, Tianfu Wu, Song Bai et al. // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recog¬nition. — 2020. — P. 2788-2797.
[26] Illingworth John, Kittler Josef. A survey of the Hough transform // Computer vision, graphics, and image processing. — 1988. — Vol. 44, no. 1. — P. 87-116.
[27] Improved point-line feature based visual SLAM method for indoor scenes / Run- zhi Wang, Kaichang Di, Wenhui Wan, Yongkang Wang // Sensors. — 2018. — Vol. 18, no. 10. - P. 3559.
[28] Jeong Woo Yeon, Lee Kyoung Mu. Visual SLAM with line and corner features // 2006 IEEE/RSJ international conference on intelligent robots and systems / IEEE. — 2006. - P. 2570-2575.
[29] Kahn Philip, Kitchen L, Riseman Edward M. A fast line finder for vision-guided robot navigation // IEEE Transactions on Pattern Analysis and Machine Intelligence. — 1990. —Vol. 12, no. 11. —P. 1098-1102.
[30] Kamat Varsha, Ganesan Subramaniam. A robust Hough transform technique for description of multiple line segments in an image // Proceedings 1998 International Conference on Image Processing. ICIP98 (Cat. No. 98CB36269) / IEEE. - Vol. 1.¬1998. — P. 216-220.
[31] Kim Hyunwoo, Lee Sukhan. Simultaneous line matching and epipolar geometry esti¬mation based on the intersection context of coplanar line pairs // Pattern Recognition Letters. — 2012. — Vol. 33, no. 10. — P. 1349-1363.
[32] LGNN: A Context-aware Line Segment Detector / Quan Meng, Jiakai Zhang, Qiang Hu et al. // Proceedings of the 28th ACM International Conference on Multi¬media. — 2020. — P. 4364-4372.
[33] LSD: A fast line segment detector with a false detection control / Rafael Grompone Von Gioi, Jeremie Jakubowicz, Jean-Michel Morel, Gregory Ran¬dall // IEEE transactions on pattern analysis and machine intelligence. — 2008. — Vol. 32, no. 4. - P. 722-732.
[34] Lange Manuel, Raisch Claudio, Schilling Andreas. Wld: A wavelet and learning based line descriptor for line feature matching. — 2020.
[35] Lange Manuel, Schweinfurth Fabian, Schilling Andreas. Dld: A deep learning based line descriptor for line feature matching // 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) / IEEE. — 2019. — P. 5910-5915.
[36] Lap-slam: A line-assisted point-based monocular vslam / Fukai Zhang, Ting Rui, Chengsong Yang, Jianjun Shi // Electronics. — 2019. — Vol. 8, no. 2. — P. 243.
[37] Learning attraction field representation for robust line segment detection / Nan Xue, Song Bai, Fudong Wang et al. // Proceedings of the IEEE/CVF Conference on Com¬puter Vision and Pattern Recognition. — 2019. — P. 1595-1603.
[38] Learning to find good correspondences / Kwang Moo Yi, Eduard Trulls, Yuki Ono et al. // Proceedings of the IEEE conference on computer vision and pattern recog¬nition. — 2018. — P. 2666-2674.
[39] Learning to parse wireframes in images of man-made environments / Kun Huang, Yifan Wang, Zihan Zhou et al. // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. — 2018. — P. 626-635.
[40] Lee Junesuk, Park Soon-Yong. PLF-VINS: Real-time monocular visual-inertial SLAM with point-line fusion and parallel-line fusion // IEEE Robotics and Automation Letters. - 2021. - Vol. 6, no. 4. - P. 7033-7040.
[41] Lee Sang Jun, Hwang Sung Soo. Elaborate monocular point and line slam with robust initialization // Proceedings of the IEEE/CVF International Conference on Computer Vision. — 2019. — P. 1121-1129.
[42] Lee Tae-jae, Kim Chul-hong, Cho Dong-il Dan. A monocular vision sensor-based efficient SLAM method for indoor service robots // IEEE Transactions on Industrial Electronics. — 2018. — Vol. 66, no. 1. — P. 318-328.
[43] Lemaire Thomas, Lacroix Simon. Monocular-vision based SLAM using line seg¬ments // Proceedings 2007 IEEE International Conference on Robotics and Automa¬tion / IEEE. — 2007. — P. 2791-2796.
[44] Li Kai, Yao Jian, Lu Xiaohu. Robust line matching based on ray-point-ray structure descriptor // Asian Conference on Computer Vision / Springer. — 2014. — P. 554-569.
[45] Lin Yancong, Pintea Silvia L, Gemert Jan C van. Deep hough-transform line priors // European Conference on Computer Vision / Springer. — 2020. — P. 323-340.
[46] Line matching based on line-points invariant and local homography / Qi Jia, Xin Fan, Xinkai Gao et al. // Pattern Recognition. — 2018. — Vol. 81. — P. 471-483.
[47] Line segment detection using transformers without edges / Yifan Xu, Weijian Xu, David Cheung, Zhuowen Tu // Proceedings of the IEEE/CVF Conference on Com¬puter Vision and Pattern Recognition. — 2021. — P. 4257-4266.
[48] Line segment detection using weighted mean shift procedures on a 2D slice sampling strategy / Marcos Nieto, Carlos Cuevas, Luis Salgado, Narciso Garcia // Pattern Analysis and Applications. — 2011. — Vol. 14, no. 2. — P. 149-163.
[49] Line segment matching: A benchmark / Kai Li, Jian Yao, Mengsheng Lu et al. // 2016 IEEE Winter Conference on Applications of Computer Vision (WACV) / IEEE. — 2016. - P. 1-9.
[50] Ma QuanMeng, Jiang Guang, Lai DianZhi. Robust line segments matching via graph convolution networks // arXiv preprint arXiv:2004.04993. — 2020.
[51] Martin David R, Fowlkes Charless C, Malik Jitendra. Learning to detect natural image boundaries using local brightness, color, and texture cues // IEEE transactions on pattern analysis and machine intelligence. -- 2004. -- Vol. 26, no. 5. -- P. 530-549.
[52] Matas Jiri, Galambos Charles, Kittler Josef. Robust detection of lines using the progressive probabilistic hough transform // Computer vision and image understand¬ing. - 2000. - Vol. 78, no. 1. - P. 119-137.
[53] McIntosh James H, Mutch Kathleen M. Matching straight lines // Computer Vision, Graphics, and Image Processing. — 1988. — Vol. 43, no. 3. — P. 386-408.
[54] Mcmlsd: A dynamic programming approach to line segment detection / Emilio J Al¬mazan, Ron Tal, Yiming Qian, James H Elder // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. — 2017. — P. 2031-2039.
[55] Mean shift based clustering of Hough domain for fast line segment detection / Anto¬nio Bandera, Jose Manuel Perez-Lorenzo, Juan Pedro Bandera, F Sandoval // Pattern Recognition Letters. — 2006. — Vol. 27, no. 6. — P. 578-586.
[56] Medioni Gerard, Nevatia Ramakant. Segment-based stereo matching // Computer vision, graphics, and image processing. — 1985. — Vol. 31, no. 1. — P. 2-18.
[57] Mur-Artal Raul, Tardos Juan D. Orb-slam2: An open-source slam system for monoc¬ular, stereo, and rgb-d cameras // IEEE transactions on robotics. — 2017. — Vol. 33, no. 5.-- P. 1255-1262.
[58] Novel coplanar line-points invariants for robust line matching across views / Qi Jia, Xinkai Gao, Xin Fan et al. // European Conference on Computer Vision / Springer. — 2016. — P. 599-611.
[59] ORB: An efficient alternative to SIFT or SURF / Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary Bradski // 2011 International conference on computer vision / leee. — 2011. — P. 2564-2571.
[60] Outdoor place recognition in urban environments using straight lines / Jin Han Lee, Sehyung Lee, Guoxuan Zhang et al. // 2014 IEEE International Conference on Robotics and Automation (ICRA) / IEEE. — 2014. — P. 5550-5557.
[61] PL-SLAM: A stereo SLAM system through the combination of points and line seg¬ments / Ruben Gomez-Ojeda, Francisco-Angel Moreno, David Zuniga-Nodl et al. // IEEE Transactions on Robotics. — 2019. — Vol. 35, no. 3. — P. 734-746.
[62] PL-SLAM: Real-time monocular visual SLAM with points and lines / Al¬bert Pumarola, Alexander Vakhitov, Antonio Agudo et al. // 2017 IEEE international conference on robotics and automation (ICRA) / IEEE. — 2017. — P. 4503-4508.
[63] Pl-vins: Real-time monocular visual-inertial slam with point and line features / Qiang Fu, Jialong Wang, Hongshan Yu et al. // arXiv preprint arXiv:2009.07462. — 2020.
[64] Ppgnet: Learning point-pair graph for line segment detection / Ziheng Zhang, Zhengxin Li, Ning Bi et al. // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. — 2019. — P. 7105-7114.
[65] RGB-D SLAM with structural regularities / Yanyan Li, Raza Yunus, Nikolas Brasch et al. // 2021 IEEE International Conference on Robotics and Automation (ICRA) / IEEE. — 2021. —P. 11581-11587.
[66] Robust visual SLAM with point and line features / Xingxing Zuo, Xiaojia Xie, Yong Liu, Guoquan Huang // 2017 IEEE/RSJ International Conference on Intel¬ligent Robots and Systems (IROS) / IEEE. — 2017. — P. 1775-1782.
[67] SOLD2: Self-supervised occlusion-aware line description and detection / Remi Pau- trat, Juan-Ting Lin, Viktor Larsson et al. // Proceedings of the IEEE/CVF Confer¬ence on Computer Vision and Pattern Recognition. — 2021. — P. 11368-11378.
[68] Schmid Cordelia, Zisserman Andrew. Automatic line matching across views // Pro¬ceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition / IEEE. — 1997. — P. 666-671.
[69] Schmid Cordelia, Zisserman Andrew. The geometry and matching of lines and curves over multiple views // International Journal of Computer Vision. — 2000. — Vol. 40, no. 3. — P. 199-233.
[70] Smith Paul, Reid Ian, Davison Andrew J. Real-Time Monocular SLAM with Straight Lines. // BMVC. - Vol. 6. - 2006. - P. 17-26.
[71] Song Jiqiang, Lyu Michael R. A Hough transform based line recognition method utilizing both parameter space and image space // Pattern recognition. — 2005. — Vol. 38, no. 4. — P. 539-552.
[72] Stephens Richard S. Probabilistic approach to the Hough transform // Image and vision computing. — 1991. — Vol. 9, no. 1. — P. 66-71.
[73] Stereo visual-inertial SLAM with points and lines / Yanqing Liu, Dongdong Yang, Jiamao Li et al. // IEEE Access. — 2018. — Vol. 6. — P. 69381-69392.
[74] StructSLAM: Visual SLAM with building structure lines / Huizhong Zhou, Dan- ping Zou, Ling Pei et al. // IEEE Transactions on Vehicular Technology. — 2015. — Vol. 64, no. 4. — P. 1364-1375.
[75] Structure PLP-SLAM: Efficient Sparse Mapping and Localization using Point, Line and Plane for Monocular, RGB-D and Stereo Cameras / Fangwen Shu, Jiaxuan Wang, Alain Pagani, Didier Stricker // arXiv preprint arXiv:2207.06058. — 2022.
[76] Structure-slam: Low-drift monocular slam in indoor environments / Yanyan Li, Niko¬las Brasch, Yida Wang et al. // IEEE Robotics and Automation Letters. — 2020. — Vol. 5, no. 4. - P. 6583-6590.
[77] Suarez Iago, Buenaposada Jose M, Baumela Luis. Elsed: Enhanced line segment drawing // arXiv preprint arXiv:2108.03144. — 2021.
[78] Superglue: Learning feature matching with graph neural networks / Paul- Edouard Sarlin, Daniel DeTone, Tomasz Malisiewicz, Andrew Rabinovich // Pro¬ceedings of the IEEE/CVF conference on computer vision and pattern recognition. — 2020. — P. 4938-4947.
[79] TP-LSD: Tri-points based line segment detector / Siyu Huang, Fangbo Qin, Pengfei Xiong et al. // European Conference on Computer Vision / Springer. — 2020. - P. 770-785.
[80] Tartanair: A dataset to push the limits of visual slam / Wenshan Wang, Delong Zhu, Xiangwei Wang et al. // 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) / IEEE. — 2020. — P. 4909-4916.
[81] Teplyakov Lev, Erlygin Leonid, Shvets Evgeny. LSDNet: Trainable Modification of LSD Algorithm for Real-Time Line Segment Detection // IEEE Access. — 2022. — Vol. 10. — P. 45256-45265.
[82] Towards real-time and light-weight line segment detection / Geonmo Gu, Byung- soo Ko, SeoungHyun Go et al. // arXiv preprint arXiv:2106.00186.— 2021.
[83] ULSD: unified line segment detection across pinhole, fisheye, and spherical cameras / Hao Li, Huai Yu, Jinwang Wang et al. // ISPRS Journal of Photogrammetry and Remote Sensing. — 2021. — Vol. 178. — P. 187-202.
[84] Vakhitov Alexander, Lempitsky Victor. Learnable line segment descriptor for visual slam // IEEE Access. — 2019. — Vol. 7. — P. 39923-39934.
[85] Verhagen Bart, Timofte Radu, Van Gool Luc. Scale-invariant line descriptors for wide baseline matching // IEEE Winter Conference on Applications of Computer Vision / IEEE. — 2014. — P. 493-500.
[86] Visual SLAM with BoPLW pairs using egocentric stereo camera for wearable-assisted substation inspection / Kun Qian, Wei Zhao, Kai Li et al. // IEEE Sensors Journal. — 2019. —Vol. 20, no. 3. —P. 1630-1641.
[87] Wang Lu, Neumann Ulrich, You Suya. Wide-baseline image matching using line signatures // 2009 IEEE 12th International Conference on Computer Vision / IEEE. — 2009. — P. 1311-1318.
[88] Wang Zhiheng, Wu Fuchao, Hu Zhanyi. MSLD: A robust descriptor for line match¬ing // Pattern Recognition. - 2009. - Vol. 42, no. 5. - P. 941-953.
[89] Wei Dong, Zhang Yongjun, Li Chang. Robust line segment matching via reweighted random walks on the homography graph // Pattern Recognition.— 2021.— Vol. 111. — P. 107693.
[90] Xu Zezhong, Shin Bok-Suk, Klette Reinhard. Accurate and robust line segment ex¬traction using minimum entropy with Hough transform // IEEE Transactions on Image Processing. — 2014. — Vol. 24, no. 3. — P. 813-822.
[91] Xu Zezhong, Shin Bok-Suk, Klette Reinhard. Closed form line-segment extraction using the Hough transform // Pattern Recognition.— 2015.— Vol. 48, no. 12.— P. 4012-4023.
[92] Yoon Sungho, Kim Ayoung. Line as a Visual Sentence: Context-Aware Line De¬scriptor for Visual Localization // IEEE Robotics and Automation Letters. — 2021. — Vol. 6, no. 4. - P. 8726-8733.
[93] Yunus Raza, Li Yanyan, Tombari Federico. Manhattanslam: Robust planar tracking and mapping leveraging mixture of manhattan frames // 2021 IEEE International Conference on Robotics and Automation (ICRA) / IEEE. — 2021. — P. 6687-6693.
[94] Zhang Lilian, Koch Reinhard. An efficient and robust line segment matching approach based on LBD descriptor and pairwise geometric consistency // Journal of Visual Communication and Image Representation. — 2013. — Vol. 24, no. 7. — P. 794-805.
[95] Zhou Yichao, Qi Haozhi, Ma Yi. End-to-end wireframe parsing // Proceedings of the IEEE/CVF International Conference on Computer Vision.— 2019. — P. 962-971.
[96] A benchmark for RGB-D visual odometry, 3D reconstruction and SLAM / Ankur Handa, Thomas Whelan, John McDonald, Andrew J Davison // 2014 IEEE international conference on Robotics and automation (ICRA) / IEEE. — 2014. — P. 1524-1531.
[97] A benchmark for the evaluation of RGB-D SLAM systems / Jurgen Sturm, Niko¬las Engelhard, Felix Endres et al. // 2012 IEEE/RSJ international conference on intelligent robots and systems / IEEE. — 2012. — P. 573-580.
[98] A review of Hough transform and line segment detection approaches / Payam Rah- mdel, Richard A Comley, Daming Shi, Siobhan McElduff. — 2015.
[99] A robust RGB-D SLAM system with points and lines for low texture indoor environ¬ments / Qiang Fu, Hongshan Yu, Lihai Lai et al. // IEEE Sensors Journal. — 2019. — Vol. 19, no. 21. —P. 9908-9920.