Тип работы:
Предмет:
Язык работы:


Разработка пакета нейросетевой аппроксимации дифференциальных уравнений DEGANN

Работа №144530

Тип работы

Бакалаврская работа

Предмет

математика и информатика

Объем работы58
Год сдачи2024
Стоимость4700 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
45
Не подходит работа?

Узнай цену на написание


Введение 5
1. Обзор существующих задач, методов и фреймворков 7
1.1. Существующие задачи и методы их решения 7
1.2. Математическая постановка задачи 10
1.3. Фреймворки автоматического машинного обучения ... 14
2. Цель и задачи 17
3. Описание решения 19
3.1. Общая архитектура решения 19
3.2. Выбор инструментов разработки 19
4. Реализация библиотеки генерации нейронных сетей 26
4.1. Особенности разработки 26
4.1.1. Модуль Equations 28
4.1.2. Модуль Networks 28
4.1.3. Модуль ExperimentEnviroment 30
4.1.4. Поиск по шаблонам 31
4.2. Тестирование 31
4.2.1. Утечка памяти 32
4.2.2. Влияние параметров обучения на результат .... 33
5. Методы поиска в пространстве нейронных сетей 36
5.1. Кодирование нейронных сетей 37
5.2. Линейный поиск 39
5.3. Случайный поиск 39
5.4. Поиск методом имитации отжига 40
6. Эксперименты 42
6.1. Дизайн экспериментов 42
6.2. Результаты экспериментов 45
7. Экспертная система 49
7.1. Архитектура 49
7.2. Реализация 49
7.3. Пример 51
Заключение 54
Список литературы 55


Необходимость моделирования динамических систем возникает во многих современных областях физики [1, 14, 6, 9], экономики [3], биологии [19, 17] и математики [5, 4]. При этом авторов указанных работ не устроили существующие численные методы нахождения решения дифференциальных уравнений и они прибегли к методам машинного обучения, в частности нейронным сетям (НС).
Актуальность аппроксимации вычислительно сложных функций с помощью нейронных сетей обусловлена свойством универсальной аппроксимации, что означает, что они могут аппроксимировать любую непрерывную функцию при наличии достаточного количества данных и архитектуры сети, также нейронные сети хорошо поддаются парал- лелизации, что позволяет им выполнять вычисления на CPU или GPU. При этом нейронные сети могут адаптироваться к изменяющимся данным и устойчивы к шуму, что делает их подходящими для аппроксимации функций в реальном мире, которые часто бывают шумными и неполными.
На данный момент большинство инструментов нахождения решений ДУ с помощью нейронных сетей разрабатываются под конкретную динамическую систему и не приспособлены для моделирования других [18, 5, 4]. А существующие фреймворки автоматического машинного обучения, позволяющие быстро пользоваться таким подходом, обладают весомыми недостатками, ограничивающими их использование в реальных задачах.
Так, к примеру, фреймворки optuna и auto-sklearn, решающие проблему комбинированного выбора алгоритмов и оптимизации метапараметров, сосредотачиваются на поиске глобального оптимума сильно не-выпуклого пространства метапараметров. Fedot и Tpot, использующие генетический подход к оптимизации модели, в результате своей работы получают большую и сложно вычислимую модель. А дистилляционные фреймворки фокусируются на обработке текста и изображений с помощью машинного обучения.
Проведённая работа посвящена разработке решения для предсказывания топологии и параметров обучения нейронных сетей для аппроксимации решений заданных дифференциальных уравнений. В главе 1 описана актуальность разработки такого решения. В главе 3 описана основная архитектура решения и выделены главные составляющие модули, также выбран инструмент для работы с нейронными сетями. В качестве модулей были выделены: библиотека генерации нейронных сетей, алгоритмы поиска в пространстве топологий НС и экспертная система для автоматического предсказания параметров алгоритмов поиска по заданному дифференциальному уравнению; реализация которых описана в главах 4, 5 и 7 соответственно.

Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В рамках работы над проектом было спроектировано решение, включающее библиотеку для генерации нейронных сетей, алгоритмы поиска в пространстве топологий нейронных сетей и экспертную систему для автоматического определения метапараметров алгоритмов.
Реализована и опубликована библиотека генерации нейронных сетей по заданным параметрам (использована библиотека Tensorflow), при этом заложена возможность реализации нейронных сетей с использованием других фреймворков.
Определено пространство топологий нейронных сетей, введён язык описания топологий нейронных сетей и реализованы метод имитации отжига, линейный и случайный алгоритмы поиска в полученном пространстве топологий, а также алгоритм поиска по задаваемым пользователем параметрам нейронной сети.
Выполнено экспериментальное исследование, показавшее, что метод имитации отжига на функциях с несколькими независимыми переменными и функциях вида синусоиды получает требуемый результат в 3-4 раза чаще, чем случайный поиск, но при работе обучает в среднем большее количество нейронных сетей и дольше работает.
Создана экспертная система на языке программирования Python с графическим интерфейсом, реализованным на PyQt6, автоматически предлагающая топологии и параметры обучения нейронных сетей для аппроксимации заданного дифференциального уравнения с указанными параметрами. Экспертная система вместе с библиотекой для генерации нейронных сетей оформлена в виде Python пакета DEGANN.
Библиотека DEGANN и соответствующий Python-пакет для работы с данной библиотекой свободно доступны здесь: https://github.com/ Krekep/degann и https://pypi.org/project/degann/.



[1] Aksenova Olga A. and Khalidov Iskander A. Simulation of unstable rarefied gas flows in a channel for different Knudsen numbers // AIP Conference Proceedings. — 2019.—Vol. 2132, no. 1. — P. 180009.— https://aip.scitation.org/doi/pdf/10.1063/1.5119667.
[2] Alkhamis Talal M., Ahmed Mohamed A., and Tuan Vu Kim. Simulated annealing for discrete optimization with estimation // European Journal of Operational Research. —1999. —Vol. 116, no. 3. —P. 530544. — Access mode: https://www.sciencedirect.com/science/ article/pii/S037722179800112X.
[3] Andey Harsha. Deep Neural Networks for solv
ing Differential Equations in Finance. — 2022. — Ac
cess mode: https://medium.com/Qandeyharsha15/
deep-neural-networks-for-solving-differential-equations-in-finai
[4] Asady B., Hakimzadegan F., and Nazarlue R. Utilizing artificial neural network approach for solving two-dimensional integral equations // Mathematical Sciences. — 2014.
[5] Berg Jens and Nystrom Kaj. A unified deep artificial neural network approach to partial differential equations in complex geometries // Neurocomputing. — 2018. — Vol. 317. — P. 28-41. — Access mode: https://www.sciencedirect.com/science/article/ pii/S092523121830794X.
[6] Bushmakova M. A. and Kustova E. V. Modeling the Vibrational Relaxation Rate Using Machine-Learning Methods // Vestnik St. Petersburg University, Mathematics. — 2022.
[7] Feurer Matthias, Klein Aaron, Eggensperger Katharina, Springen- berg Jost Tobias, Blum Manuel, and Hutter Frank. Efficient and robust automated machine learning // Proceedings of the 28th International Conference on Neural Information Processing Systems - Volume 2. — Cambridge, MA, USA : MIT Press. — 2015. — NIPS’15.— P. 27552763.
[8] Flamant Cedric, Protopapas Pavlos, and Sondak David. Solving Differential Equations Using Neural Network Solution Bundles // CoRR. — 2020. —Vol. abs/2006.14372. — arXiv : 2006.14372.
[9] Gorikhovskii V.I. and Kustova E.V. Neural-Network-Based Approach to the Description of Vibrational Kinetics of Carbon Dioxide // Vestnik St. Petersburg University, Mathematics. — 2022.
[10] Gorikhovskii V I, Evdokimova T O, and Poletansky V A. Neural networks in solving differential equations // Journal of Physics: Conference Series. — 2022.—jul.—Vol. 2308, no. 1.—P. 012008.—Access mode: https://dx.doi.Org/10.1088/1742-6596/2308/1/012008.
[11] Granville V., Krivanek M., and Rasson J.-P. Simulated annealing: a proof of convergence // IEEE Transactions on Pattern Analysis and Machine Intelligence. — 1994.—Vol. 16, no. 6. — P. 652-656.
[12] Kirkpatrick S., Gelatt C. D., and Vecchi M. P. Optimization by Simulated Annealing // Science. — 1983. — Vol. 220, no. 4598. — P. 671-680. — https://www.science.org/doi/pdf/10.1126/science.220.4598.671.
[13] Koryagin Alexander, Khudorozkov Roman, and Tsimfer Sergey. Py- DEns: a Python Framework for Solving Differential Equations with Neural Networks. — 2019. — Access mode: https://arxiv.org/abs/ 1909.11544.
[14] Lei Chon Lok and Mirams Gary R. Neural Network Differential Equations For Ion Channel Modelling // Frontiers in Physiology. — 2021. — Vol. 12.—Access mode: https://www.frontiersin.org/articles/ 10.3389/fphys.2021.708944.
[15] Matsubara Yoshitomo. torchdistill: A Modular, Configuration-Driven Framework for Knowledge Distillation // International Workshop on Reproducible Research in Pattern Recognition / Springer. — 2021.— P. 24-44.
[16] Matsubara Yoshitomo. torchdistill Meets Hugging Face Libraries for Reproducible, Coding-Free Deep Learning Studies: A Case Study on NLP // Proceedings of the 3rd Workshop for Natural Language Processing Open Source Software (NLP-OSS 2023). — Empirical Methods in Natural Language Processing. — 2023. — P. 153-164.
[17] Mohanta Rishika and Assisi Collins. Parallel scalable simulations of biological neural networks using TensorFlow: A beginner’s guide. — 2019. — Access mode: https://arxiv.org/abs/1906.03958.
[18] Raissi M., Perdikaris P., and Karniadakis G.E. Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations // Journal of Computational Physics. — 2019. — Vol. 378. — P. 686-707. — Access mode: https://www.sciencedirect.com/science/article/ pii/S0021999118307125.
[19] Mao Guo, Zeng Ruigeng, Peng Jintao, Zuo Ke, Pang Zhengbin, and Liu Jie. Reconstructing gene regulatory networks of biological function using differential equations of multilayer perceptrons // BMC Bioinformatics. — 2022.
[20] Rackauckas Christopher, Ma Yingbo, Martensen Julius, Warner Collin, Zubov Kirill, Supekar Rohit, Skinner Dominic, Ramadhan Ali, and Edelman Alan. Universal Differential Equations for Scientific Machine Learning. — 2020. — Access mode: https://arxiv.org/abs/ 2001.04385.
[21] Полетанский В. А. Евдокимова Т. О. Гориховский В. И. Применение методов машинного обучения для решения дифференциальных уравнений. — 2021. — Access mode: http://hdl.handle.net/11701/32448.
[22] Хачумов М.В. Емельянова Ю.Г. Емельянов М.А. Хачумов В.М. Логический базис на нейронах с параболической функцией активации // Материалы XXIII Международной конференции по вычислительной механике и современным прикладным программным системам (ВМСППС’2023). — 2023. — P. 144-147.— Access mode: https://www.elibrary.ru/item.asp?id=55021491.



Работу высылаем на протяжении 30 минут после оплаты.




©2025 Cервис помощи студентам в выполнении работ