Тип работы:
Предмет:
Язык работы:


Методы градиентного спуска на основе метода Рунге - Кутты с разложением Лагранжа - Бюрмана

Работа №149216

Тип работы

Бакалаврская работа

Предмет

программирование

Объем работы47
Год сдачи2024
Стоимость4760 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
10
Не подходит работа?

Узнай цену на написание


Введение 3
Глава 1. Обзор литературы 5
1.1. Явные методы Рунге - Кутты 6
1.2. Разложение Лагранжа - Бюрмана 8
1.2.1 Формула разложения Лагранжа - Бюрмана 8
1.2.2 Явные методы Рунге - Кутты с разложением Лагранжа
- Бюрмана 9
1.2.3 Метод второго порядка точности 10
1.3. Применение методов Рунге - Кутты к решению оптимиза-ционных задач 12
1.4. Выводы 13
Глава 2. Построение и анализ градиентных методов 14
2.1. Случай квадратичной функции 14
2.1.1 Одношаговый метод 15
2.1.2 Двухшаговый метод 21
2.2. Случай возмущенной квадратичной функции 28
2.3. Результаты 30
Глава 3. Решение задач 31
3.1. Решение двумерной задачи для уравнения Пуассона .... 32
3.2. Решение трехмерной задачи для уравнения Пуассона . ... 34
3.3. Решение задачи минимизации интегрального функционала 36
3.4. Решение задачи для нелинейного интегро-дифференциального
уравнения 38
3.5. Решение задачи логистической регрессии 40
3.6. Результаты 42
Заключение 43
Список литературы 44


В настоящее время методы оптимизации широко используются во многих областях науки и техники. Эти методы активно применяются в задачах
машинного обучения [14], теории управления [23] и линейной алгебры [15,
28]. Их использование позволяет находить наилучшие решения в условиях
ограниченных времени и ресурсов. На практике большинство задач оптимизации можно решить только численно. В связи с этим разработка и исследование численных методов оптимизации являются актуальными задачами в
вычислительной математике.
Наиболее часто при решении оптимизационных задач используются
градиентные методы, которые основаны на движении вдоль антиградиента
— направления наискорейшего убывания функции. Примерами таких методов являются градиентный спуск, метод Нестерова [26] и метод тяжелого шарика [8]. Также в задачах оптимизации широко применяются численные методы второго порядка, среди которых наиболее распространен метод Ньютона. Стоит отметить, что методы первого порядка не используют матрицу
Гессе, вычисление которой может потребовать значительных вычислительных ресурсов для решения задач большой размерности.
В последние годы идет активное исследование методов оптимизации,
построенных на аналогии между градиентным спуском и задачей Коши для
обыкновенных дифференциальных уравнений [12, 17, 18, 19, 25, 27, 30, 31,
33, 34, 35]. Наиболее популярными численными методами решения задачи
Коши являются методы Рунге – Кутты (РК), которые основаны на разложении
решения в ряд Тейлора. Однако, решение можно разложить в ряд по степеням
некоторой функции, зависящей от шага метода. Эту задачу можно эффективно решить с помощью разложения Лагранжа – Бюрмана (ЛБ) [5]. Использование нестандартных разложений позволяет получить увеличенную область
устойчивости метода и проводить вычисления с бо́ льшим шагом.
В данной работе построены новые численные методы оптимизации выпуклых функций с использованием методов РК на основе разложения ЛБ,
проведено теоретическое исследование методов, а также приведены результаты их применения к задачам из различных областей и проведено сравнение
3с другими известными методами.
Целью работы является разработка и анализ новых численных методов
минимизации выпуклых функций с использованием методов РК на основе
разложения ЛБ. Для достижения поставленной цели необходимо решить следующие задачи:
- построение новых градиентных методов,
- получение условий сходимости,
- программная реализация и решение тестовых задач,
- сравнение построенных методов с другими известными методами оптимизации.
Глава 1 посвящена обзору литературы. Рассмотрена аналогия между
градиентным спуском и задачей Коши, а также осуществлен обзор статей,
связанных с тематикой работы. Представлено семейство методов РК и методы, основанные на разложении ЛБ. Сформулированы цель и задачи работы.
В Главе 2 приводится построение и анализ новых градиентных методов минимизации, сформулированы и доказаны теоремы о сходимости для
случая квадратичной и возмущенной квадратичной функции.
В Главе 3 проводится сравнение построенных методов с другими известными методами оптимизации. Рассматриваются задачи из различных областей: краевые задачи для уравнения Пуассона в двумерном и трехмерном
случаях; задача минимизации интегрального функционала; краевая задача
для нелинейного интегро-дифференциального уравнения и задача логистической регрессии с регуляризацией. По результатам расчетов показано, что
построенные методы могут сходиться быстрее, чем широко используемые
методы минимизации выпуклых функций.

Возникли сложности?

Нужна помощь преподавателя?

Помощь студентам в написании работ!


В представленной работе были проведены построение и анализ методов на основе метода РК с разложением ЛБ. Сформулированы и доказаны теоремы о сходимости построенных методов. Получены выражения для параметров, обеспечивающие оптимальную скорость сходимости. Проведено сравнение построенных методов с другими известными методами минимизации выпуклых функций при решении тестовых задач из различных областей.
В ходе работы были получены следующие результаты:
1. Построены методы спуска на основе двухэтапного метода Рунге - Кутты с разложением Лагранжа - Бюрмана.
2. Получены условия сходимости для случая квадратичной и возмущенной квадратичной функции.
3. Проведены вычислительные эксперименты по сравнению предложенных методов с известными методами минимизации при решении двумерных и трехмерных задач для уравнений эллиптического типа, задачи вариационного исчисления, задачи для нелинейного интегро-дифференциального уравнения и задачи логистической регрессии.
Из полученных результатов можно сделать следующие выводы:
1. В выражении для шага (2.14) за счет выбора параметра у можно влиять на скорость сходимости и шаг численного метода. За счет этого, при про-ведении практических расчетов можно производить вычисления с высокой эффективностью, экономя вычислительные ресурсы.
2. При решении задач из разных областей показано, что построенные методы могут сходиться быстрее, чем известные методы минимизации выпуклых функций.
Перспективной для дальнейшего исследования можно назвать задачу распространения методов на основе метода РК с разложением ЛБ на случай произвольной гладкой выпуклой функции. В частности, можно рассмотреть по строение квазиньютоновских методов и их применение к задачам машинного обучения, обработки изображений и теории управления.



Альбер С. И, Альбер Я. И. Применение метода дифференциального спуска для решения нелинейных систем // Ж. вычисл. матем. и матем. физ., 1967, том 7, номер 1, 14-32.
[2] Арушанян О. Б., Залеткин С. Ф. Численное решение обыкновенных дифференциальных уравнений на Фортране. М.: МГУ, 1990, 336 с.
[3] Бахвалов Н. С., Жидков Н. П., Кобельков Г. М. Численные методы. М.: Лаборатория знаний, 2020, 636 с.
[4] Вержбицкий В. М. Основы численных методов. М.: Высш. шк., 2002, 840 с.
[5] Ворожцов Е. В. Построение явных разностных схем для обыкновен¬ных дифференциальных уравнений с помощью разложений Лагранжа- Бюрмана // Выч. мет. программирование, 2010, том 11, выпуск 2, 198-209.
[6] Гантмахер Ф. Р Теория матриц. М: Наука, 1966, 581 с.
[7] Жадан В. Г. Методы оптимизации. Ч. 2. Численные алгоритмы. М.: МФТИ, 2015, 320 с.
[8] Поляк Б. Т. Введение в оптимизацию. М: Наука, 1983, 384 с.
[9] Хейгеман Л., Янг Д. Прикладные итерационные методы. М: Мир, 1986, 448 с.
[10] Эльсгольц Л. Э. Вариационное исчисление. М: Гостехиздат, 1958, 164 с.
[11] Abbott J. Р, Brent R. P Fast local convergence with single and multistep methods for nonlinear equations // The Journal of the Australian Mathematical Society. Series B: Applied Mathematics. 1975, vol. 19, no. 2, 173-199.
[12] Areias P, Rabczuk T. An engineering interpretation of Nesterov’s convex minimization algorithm and time integration: application to optimal fiber orientation // Computational Mechanics. 2021, vol. 68, no. 1, 211-227.
[13] Ascher U. M., van den Doel K., Huang H., Svaiter B. F. Gradient descent and fast artificial time integration // ESAIM: M2AN. 2009, vol. 43, no. 4, 689-708.
[14] Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006, 758 p.
[15] Boyd S., Vandenberghe L. Introduction to Applied Linear Algebra: Vectors, Matrices, and Least Squares. Cambridge University Press, 2018, 473 p.
[16] Brown A. A, Bartholomew-Biggs M. C. Some effective methods for unconstrained optimization based on the solution of systems of ordinary differential equations // Journal of Optimization Theory and Applications. 1989, vol. 62, no. 2,211-224.
[17] Chen R., Li X. Implicit Runge-Kutta Methods for Accelerated Unconstrained Convex Optimization // IEEE Access. 2020, vol. 8, 28624-28634.
[18] Duruisseaux V, Leok M. Practical perspectives on symplectic accelerated optimization // Optimization Methods and Software. 2023, vol. 38, no. 6, 1230-1268.
[19] Eftekhari A., Vandereycken B., Vilmart G., Zygalakis K. C. Explicit stabilised gradient descent for faster strongly convex optimisation // BIT Numerical Mathematics. 2021, vol. 61, 119-139.
[20] Gitman I., Lang H., Zhang P, Xiao L. Understanding the Role of Momentum in Stochastic Gradient Methods. Advances in Neural Information Processing Systems. 2019, vol. 32.
[21] Hairer E., Wanner G., Norsett S.P Solving Ordinary Differential Equations I: Nonstiff Problems. Springer, 1993, 528 p.
[22] Khiyabani F. M., Leong W. J. Quasi-Newton methods based on ordinary differential equation approach for unconstrained nonlinear optimization // Applied Mathematics and Computation. 2014, vol. 233, 272-291.
[23] Leonard D., Long N., Ngo V. L. Optimal Control Theory and Static Optimization in Economics. Cambridge University Press, 1992, 386 p.
[24] Lessard L., Recht B., Packard A. Analysis and Design of Optimization Algorithms via Integral Quadratic Constraints // SIAM Journal on Optimization. 2016, vol. 26, no. 1, 57-95.
[25] Luo H., Chen L. From differential equation solvers to accelerated first-order methods for convex optimization // Mathematical Programming. 2022, vol. 195, 735-781.
[26] Nesterov Y. E. Introductory Lectures on Convex Optimization: a Basic Course. Springer, 2004, 236 p.
[27] Porta F., Cornelio A., Ruggiero V. Runge-Kutta-like scaling techniques for first-order methods in convex optimization // Applied Numerical Mathematics. 2017, vol. 116, 256-272.
[28] Saad Y Iterative Methods for Sparse Linear Systems. SIAM, 2003, 567 p.
[29] Scieur D., d’Aspremont A., Bach F. Regularized nonlinear acceleration // Mathematical Programming. 2020, vol. 179, no. 1, 47-83.
[30] Shi B., Du S. S., Jordan M. I., Su W. J. Understanding the acceleration phenomenon via high-resolution differential equations // Mathematical Programming. 2022, vol. 195, 79-148.
[31] Stillfjord T., Williamson M. SRKCD: A stabilized Runge-Kutta method for stochastic optimization // Journal of Computational and Applied Mathematics. 2023, 417 p.
[32] Su W., Boyd S., Candes E. J. A Differential Equation for Modeling Nesterov’s Accelerated Gradient Method: Theory and Insights // Journal of Machine Learning Research. 2016, vol. 17, no. 153, 1-43.
[33] Zhang J., Sra S., Jadbabaie A. Acceleration in First Order Quasi-strongly Convex Optimization by ODE Discretization //2019 IEEE 58th Conference on Decision and Control. 2019.
[34] Zhang J., Mokhtari A., Sra S., Jadbabaie A. Direct Runge-Kutta Discretization Achieves Acceleration // Advances in Neural Information Processing Systems. 2018, vol. 31, Curran Associates, Inc.
[35] Zhang J., Uribe C. A., Mokhtari A., Jadbabaie A. Achieving Acceleration in Distributed Optimization via Direct Discretization of the Heavy-Ball ODE // 2019 IEEE American Control Conference (ACC). 2019.

Работу высылаем на протяжении 30 минут после оплаты.




©2024 Cервис помощи студентам в выполнении работ