Тип работы:
Предмет:
Язык работы:


Интеграция методов машинного обучения и эвристического поиска в задачах планирования траектории

Работа №127595

Тип работы

Бакалаврская работа

Предмет

информатика

Объем работы30
Год сдачи2022
Стоимость4240 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
11
Не подходит работа?

Узнай цену на написание


Введение 3
2. Постановка задачи 5
3. Обзор литературы 8
4. Алгоритмы и метод 11
4.1. Алгоритмы эвристического поиска 11
4.1.1 Картографическая модель среды 11
4.1.2 Алгоритм Дейкстры 11
4.1.3 Алгоритм A* и эвристики 13
4.1.4 Универсальные эвристики 14
4.1.5 Алгоритм WA* 15
4.2. Метод 16
4.2.1 Предсказанные эвристики 16
4.2.2 Обучающий набор данных 17
4.2.3 Генерация обучающего набора данных 18
4.2.4 Архитектура нейросети 20
4.2.5 Обучение модели 21
4.2.6 Тестирование с планировщиком 21
5. Эксперименты 23
5.1. Сложность задания 23
5.2. Обучающий набор данных 24
5.3. Параметры нейросети 24
5.4. Смещение в сторону заданий низкой сложности 25
5.5. Оценка сложности заданий 26
5.6. Тестирование 27
5.7. Основные результаты 28
6. Выводы 29
7. Заключение 30
8. Благодарность 30
Список литературы 31


Планирование траектории является одной из наиболее важных исследовательских задач в робототехнике. Многие задачи в различных областях решаются с помощью планирования траектории, например, автономное управление мобильным роботом для достижения конкретной цели. Подходящая траектория пути генерируется как последовательность действий для поддержания движения робота из начального состояния в целевую точку через несколько промежуточных состояний. Мобильные роботы могут найти оптимальный или почти оптимальный путь, обходящий препятствия, от начального до целевого состояния на основе одного или нескольких показателей производительности, таких как длина найденного пути или время, потраченное на его прохождение.
Поиск пути выполняется в установленной картографической модели среды, в которой расположен мобильный робот. Построение картографической модели среды подразумевает создание точного описания пространственного местоположения различных объектов (например, препятствий) в среде, в которой находится робот. Цель построения карты окружающей среды — помочь мобильному роботу спланировать оптимальный путь от начальной до целевой точки в установленной модели окружающей среды с препятствиями. Существует множество методов создания модели среды для планирования траектории движения мобильного робота. В качестве базовой модели среды часто используется граф декомпозиции сетки или граф видимости.
Значительную часть всех алгоритмов планирования траектории составляют методы эвристического поиска. Алгоритм A*, разработанный на основе алгоритма Дейкстры, является отправной точкой большинства алгоритмов эвристического поиска, которые в большинстве своем являются его различными модификациями. Алгоритм A* позволяет находить путь наименьшей стоимости в графе от стартовой вершины до конечной и часто используется для планирования траектории движения роботов в графовой картографической модели среды. Многие научные статьи посвящены разработке новых усовершенствованных эвристических методов поиска путем модификации алгоритма A*.
Эффективность работы алгоритма Л* во многом зависит от используемой эвристической функции, оценивающей расстояние до цели. Так, слишком неточная эвристическая оценка может негативно сказаться на производи-тельности алгоритма, а вычисление точной эвристической оценки (идеальной эвристики) может оказаться нецелесообразным: самый простой способ вы-числить точную эвристическую оценку расстояния от всех вершин графа до цели - запустить алгоритм Дейкстры на этом графе из цели, однако, такой способ позволяет сразу найти оптимальный путь от старта до цели и является очень неэффективным.
В связи с этим, предлагается использовать методы машинного обучения для разработки предсказанных эвристических оценок, которые позволят эффективнее решать задачу планирования траектории методами эвристического поиска. Модели машинного обучения, такие как нейронные сети, позволяют не решать задачу вычисления идеальной эвристики напрямую, а обучившись выявлять сложные зависимости между значениями идеальной эвристики и входными данными на некотором наборе задач, впоследствии выдавать хорошее приближение точной эвристической оценки на совершенно новой задаче.
Данная работа направлена на повышение эффективности алгоритма Л* за счёт разработки универсального нейросетевого метода, позволяющего получить аппроксимацию идеальной эвристической функции - предсказанную эвристику, для её использования в алгоритме Л*в рамках задачи планирования траектории, решаемой на графах регулярной декомпозиции. Универсальность метода заключается в возможности его применения для решения задачи планирования в разнообразных картографических моделях среды, в том числе тех, о строении которых не было информации при обучении нейросети. Использование, полученной в результате работы метода, предсказанной аппроксимации идеальной эвристики должно значительно уменьшать количество раскрытых состояний в ходе работы алгоритма Л*, тем самым увеличивая его эффективность.


Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В работе рассматривается одна из наиболее важных задач в робототехнике - задача планирования траектории. Был проведен анализ научной литературы в области этой задачи, а также в области применения методов машинного обучения и эвристического поиска для её решения. Была разработана и реализована модификация алгоритма A*, в основе которой лежит нейросетевой подход, позволяющая решать задачу планирования траектории на графах регулярной декомпозиции эффективнее, чем базовая версия алгоритма A* и его модификация - алгоритм WA*.


[1] Kito, Tomomi &Ota, Jun & Katsuki, R. & Mizuta, T. & Arai, Toshiro & Ueyama, Tsuyoshi Nishiyama, T.. (2003). Smooth path planning by using visibility graph-like method. 3. 3770 - 3775 vol.3. 10.1109/ROBOT.2003.1242175.
[2] El Khaili, M.. (2014). Visibility Graph For Path Planning In The Presence Of Moving Obstacles. Engineering Science and Technology an International Journal. 4. 118-123.
[3] Masehian, Ellips Amin-Naseri, M. R.. (2004). A Voronoi diagram-visibility graph-potential field compound algorithm for robot path planning. J. Field Robotics. 21. 275-300. 10.1002/rob.20014.
[4] Milos Seda and Vaclav Pich. 2008. Robot motion planning using generalised voronoi diagrams. In Proceedings of the 8th conference on Signal processing, computational geometry and artificial vision (ISCGAV’08). World Scientific and Engineering Academy and Society (WSEAS), Stevens Point, Wisconsin, USA, 215-220.
[5] Yakovlev K.S., Baskin E.S. Graph models for solving 2D path finding problems. Artificial intelligence and decision making, 2013, no. 1, pp. 5-12.
[6] Dijkstra, E.W. A note on two problems in connexion with graphs. Numer. Math. 1, 269-271 (1959).
[7] P. E. Hart, N. J. Nilsson and B. Raphael, A Formal Basis for the Heuristic Determination of Minimum Cost Paths, in IEEE Transactions on Systems Science and Cybernetics, vol. 4, no. 2, pp. 100-107, July 1968, doi: 10.1109/TSSC.1968.300136. https://doi.org/10.1007/BF01386390
[8] Rudiger Ebendt, Rolf Drechsler, Weighted A* search - unifying view and application, Artificial Intelligence, Volume 173, Issue 14, 2009, Pages 1310¬1342, ISSN 0004-3702, https://doi.org/10.1016Zj.artint.2009.06.004.
[9] A. Stentz, Optimal and efficient path planning for partially-known environments,Proceedings of the 1994 IEEE International Conference on Robotics and Automation, 1994, pp. 3310-3317 vol.4, doi: 10.1109/ROBOT.1994.351061.
[10] L. Qing, Z. Zhou, W. Shangjun and Y. Yixin, Path planning in environment with moving obstacles for mobile robot, Proceedings of the 31st Chinese Control Conference, 2012, pp. 5019-5024.
[11] Jiahai Liang, A Path Planning Algorithm of Mobile Robot in Known 3D Environment, Procedia Engineering, Volume 15, 2011, Pages 157-162, ISSN 1877-7058, https://doi.org/10.1016Zj.proeng.2011.08.032.
[12] Otte, M.W. (2009). A Survey of Machine Learning Approaches to Robotic Path-Planning.
[13] Wang, Xiaoqi; Jin, Lina; Wei, Haiping. Journal of Physics: Conference Series; Bristol Vol. 1584, Iss. 1, (Jul 2020). doi: 10.1088/1742-6596/1584/1/012006
[14] Aleksandr I. Panov, Konstantin S. Yakovlev, Roman Suvorov, Grid Path Planning with Deep Reinforcement Learning: Preliminary Results, Procedia Computer Science, Volume 123, 2018, Pages 347-353, ISSN 1877-0509, https://doi.org/10.1016/j.procs.2018.01.054.
[15] Geesara Kulathunga (2021). A Reinforcement Learning based Path Planning Approach in 3D Environment. arXiv:2105.10342
[16] Watkins, Christopher JCH, and Peter Dayan. Q-learning. Machine learning 8.3-4 (1992): 279- 292.
[17] Sutton, Richard S., and Andrew G. Barto. Reinforcement learning: An introduction. MIT press, 2018.
[18] Hu, Y., Yang, L., & Lou, Y. (2021). Path Planning with Q-Learning. Journal of Physics: Conference Series, 1948.
[19] Yonetani, R., Taniai, T., Barekatain, M., Nishimura, M. & Kanezaki, A. Path Planning using Neural A* Search. CoRR. abs/2009.07476 (2020), https://arxiv.org/abs/2009.07476
[20] Takahashi, T.; Sun, H.; Tian, D.; Wang, Y. Learning Heuristic Functions for Mobile Robot Path Planning Using Deep Neural Networks. ICAPS 2019, 29, 764-772.
[21] URL: https://movingai.com/benchmarks/grids.html
[22] Zhou, Z., Rahman Siddiquee, M.M., Tajbakhsh, N., Liang, J. (2018). UNet++: A Nested U-Net Architecture for Medical Image Segmentation.
[23] URL: https://github.com/qubvel/segmentation_models.pytorch
[24] Tan. M., Le, Q. (2019). EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks. ProcProceedings of the 36th International Conference on Machine Learning, PMLR 97:6105-6114.
[25] Kingma, Diederik & Ba, Jimmy. (2014). Adam: A Method for Stochastic Optimization. International Conference on Learning Representations.
[26] Ilya Loshchilov, Frank Hutter. SGDR: Stochastic Gradient Descent with Warm Restarts. arXiv:1608.03983


Работу высылаем на протяжении 30 минут после оплаты.



Подобные работы


©2025 Cервис помощи студентам в выполнении работ