Тема: Исследование и реализация алгоритмов оптимизации
Закажите новую по вашим требованиям
Представленный материал является образцом учебного исследования, примером структуры и содержания учебного исследования по заявленной теме. Размещён исключительно в информационных и ознакомительных целях.
Workspay.ru оказывает информационные услуги по сбору, обработке и структурированию материалов в соответствии с требованиями заказчика.
Размещение материала не означает публикацию произведения впервые и не предполагает передачу исключительных авторских прав третьим лицам.
Материал не предназначен для дословной сдачи в образовательные организации и требует самостоятельной переработки с соблюдением законодательства Российской Федерации об авторском праве и принципов академической добросовестности.
Авторские права на исходные материалы принадлежат их законным правообладателям. В случае возникновения вопросов, связанных с размещённым материалом, просим направить обращение через форму обратной связи.
📋 Содержание
Введение 5
Глава 1 Постановка задачи и методы оптимизации 7
1.1 Постановка задачи детерминированной оптимизации 7
1.2 Метод градиентного спуска 11
1.3 Метод стохастической аппроксимации 14
1.4 Метод Ньютона 17
Глава 2 Обзор и анализ алгоритмов оптимизации 20
2.1 Алгоритм градиентного спуска 20
2.2 Алгоритм Роббинса-Монро 21
2.3 Алгоритм имитации отжига 26
2.4 Алгоритм Левенберга-Марквардта 29
Глава 3 Реализация и тестирование алгоритмов оптимизации 32
3.1 Реализация алгоритмов оптимизации 32
3.2 Тестирование алгоритмов оптимизации 34
Заключение 38
Список используемой литературы 40
📖 Введение
Последние разработки методов оптимизации можно в основном разделить на детерминированные и эвристические подходы.
Под детерминированной оптимизацией понимаются все алгоритмы, которые следуют строгому математическому подходу. Строго говоря, это относится к математическому программированию.
По мере развития алгоритмических и вычислительных методов детерминированная оптимизация стала применяться к широкому спектру задач, включая экономику, финансы, инженерию, управление и др.
В этой связи исследование и реализация алгоритмов оптимизации представляют актуальность и научно-практический интерес.
Объектом исследования бакалаврской работы является оптимизация.
Предметом исследования бакалаврской работы являются алгоритмы оптимизации.
Цель бакалаврской работы - исследование и реализация алгоритмов оптимизации.
Для достижения данной цели необходимо выполнить следующие задачи:
• выполнить постановку задачи исследования и проанализировать методы детерминированной оптимизации;
• проанализировать алгоритмы детерминированной оптимизации;
• выполнить реализацию и тестирование алгоритмов детерминированной оптимизации.
Методы исследования - методы оптимизации.
Практическая значимость бакалаврской работы заключается в разработке программы, реализующей алгоритмы оптимизации.
Данная работа состоит из введения, трех глав, заключения и списка используемой литературы.
Первая главе работы посвящена постановке задачи исследования и анализу методов оптимизации.
Вторая глава работы посвящена обзору и анализу алгоритмов оптимизации.
Третья глава посвящена реализации и тестированию алгоритмов й оптимизации.
В заключении описываются результаты выполнения выпускной квалификационной работы.
Бакалаврская работа состоит из 42 страниц текста, содержит 7 рисунков, 2 таблицы и 22 источника.
✅ Заключение
По мере развития алгоритмических и вычислительных методов оптимизация стала применяться к широкому спектру задач, включая финансовое планирование, производство, управление цепочками поставок, смягчение последствий изменения климата и контроль загрязнения.
В этой связи исследование и реализация алгоритмов оптимизации представляют актуальность и научно-практический интерес.
Для достижения данной цели в процессе работы над бакалаврской работой решены следующие задачи:
• выполнена постановка задачи исследования и проанализированы методы моделирования оптимизации. Детерминированная оптимизация или математическое программирование - это классический способ оптимизации с помощью математических моделей. Рассмотрены некоторые метолы оптимизации. Метод градиентного спуска представляет собой приближенный итеративный метод математической оптимизации. Его можно использовать для приближения к минимуму любой дифференцируемой функции. Методы стохастической аппроксимации - это семейство итерационных алгоритмов, обычно используемых для поиска корней или задач оптимизации. Метод Ньютона — самый классический и известный алгоритм детерминированной оптимизации, итерационный численный метод решения оптимизационных задач;
• проанализированы алгоритмы оптимизации. АСГС отличается от обычного градиентного спуска тем, что градиент оптимизируемой функции считается на каждом шаге не как сумма градиентов от каждого элемента выборки, а как градиент от одного, случайно выбранного элемента. Целью стохастических алгоритмов является нахождение экстремумов функций, которые неизвестны, но где доступны только зашумленные наблюдения. Алгоритм имитации отжига основан на аналогии с процессом кристаллизации вещества, например, при отжиге металла. Как и в случае с методами, эффективность того или иного алгоритма оптимизации сильно зависит от условий конкретной задачи оптимизации.;
• выбран язык программирования Python и выполнена реализация АСГС. Язык Python широко применяется для реализации алгоритмов обработки больших данных и в машинном обучении. Для проведения вычислительного эксперимента использованы тестовые данные, которые графически представляют собой наборы черных и красных точек. Исследование фактических значений потерь в конце 100-й эпохи показали, что потери, полученные с помощью АСГС, почти на два порядка ниже, чем при классическом градиентном спуске (0,006 против 0,447 соответственно). Эта разница связана с несколькими обновлениями весов за эпоху, что дает представленной модели больше шансов учиться на обновлениях, внесенных в матрицу весов.
Результаты бакалаврской работы представляют научно-практический интерес и могут быть рекомендованы для исследования методов и алгоритмов оптимизации.





