Тема: Применение машинного обучения для одномерного алгоритма глобальной оптимизации с локальной настройкой
Закажите новую по вашим требованиям
Представленный материал является образцом учебного исследования, примером структуры и содержания учебного исследования по заявленной теме. Размещён исключительно в информационных и ознакомительных целях.
Workspay.ru оказывает информационные услуги по сбору, обработке и структурированию материалов в соответствии с требованиями заказчика.
Размещение материала не означает публикацию произведения впервые и не предполагает передачу исключительных авторских прав третьим лицам.
Материал не предназначен для дословной сдачи в образовательные организации и требует самостоятельной переработки с соблюдением законодательства Российской Федерации об авторском праве и принципов академической добросовестности.
Авторские права на исходные материалы принадлежат их законным правообладателям. В случае возникновения вопросов, связанных с размещённым материалом, просим направить обращение через форму обратной связи.
📋 Содержание
ВВЕДЕНИЕ 4
1 МЕТОДЫ РЕШЕНИЯ ЗАДАЧИ ГЛОБАЛЬНОЙ ОПТИМИЗАЦИИ 6
1.1 Постановка задачи глобальной оптимизации 6
1.2 Стохастические алгоритмы глобальной оптимизации 7
1.3 Эвристические алгоритмы глобальной оптимизации 9
1.4 Детерминированные алгоритмы глобальной оптимизации 14
1.5 Постановка задачи построения алгоритма с помощью машинного
обучения 20
1.6 Выводы по разделу 21
2 РАЗРАБОТКА АЛГОРИТМА ГЛОБАЛЬНОЙ ОПТИМИЗАЦИИ
С ИСПОЛЬЗОВАНИЕМ НЕЙРОННОЙ СЕТИ 22
2.1 Построение нейронной сети 22
2.2 Оценка количества испытаний, необходимых для получения
глобального минимума 26
2.3 Алгоритм глобальной оптимизации с локальной настройкой константы
Липшица с применением нейронной сети 29
2.4 Выводы по разделу 32
3 ТЕСТИРОВАНИЕ РАЗРАБОТАННОГО АЛГОРИТМА
С ИСПОЛЬЗОВАНИЕМ НЕЙРОННОЙ СЕТИ 33
3.1 Параметры нейронной сети 33
3.2 Вычислительные эксперименты 34
3.3 Выводы по разделу 43
ЗАКЛЮЧЕНИЕ 44
БИБЛИОГРАФИЧЕСКИЙ СПИСОК 46
ПРИЛОЖЕНИЕ 1 Код программы
📖 Введение
Многие многомерные задачи можно решить, используя редукцию - сведение сложных задач к более простым. Таким образом многомерные задачи сводятся к нескольким одномерным, которые решаются при помощи одномерных алгоритмов. Одномерные алгоритмы глобальной оптимизации позволяют решать многоэкстремальные задачи, исследуя отдельные факторы многомерных процессов, одномерные процессы и их характеристики. Также, одномерные задачи встречаются в областях электроники и электротехники [3].
Существует несколько классов алгоритмов глобальной оптимизации: стохастические, эвристические и детерминированные. Последний тип алгоритмов - детерминированные, позволяют решать задачи липшицевой глобальной оптимизации. Большой вклад в развитие этих алгоритмов внесли Я.Д. Сергеев и Д.Е. Квасов. Основным преимуществом данных алгоритмов является высокая скорость нахождения решения. Отдельный класс алгоритмов, позволяющий существенно ускорить поиск решения за счет учета локальной информации во всей допустимой области, а не только в окрестности точки глобального минимума, - алгоритмы липшицевой глобальной оптимизации с локальной настройкой [13, 14, 24].
Применение машинного обучения на сегодняшний день является достаточно распространенным в различных сферах человеческой деятельности. Наиболее часто машинное обучение применяется в маркетинге для анализа данных о пользователях платформы или магазина. Кроме этого, машинное обучение в области медицины позволяет наиболее точно диагностировать заболевание и подобрать индивидуальный план лечения, а в структурах контроля безопасности довольно распространены системы распознавания лиц [20].
Цель данной работы - разработка алгоритма глобальной оптимизации с локальной настройкой с применением машинного обучения. Для достижения поставленной цели были сформулированы следующие задачи:
1) провести обзор существующих методов решения задачи глобальной оптимизации;
2) реализовать алгоритм липшицевой глобальной оптимизации с локальной настройкой и оценить количество итераций, необходимых для глобальной минимизации тестовых задач;
3) разработать нейронную сеть для решения задачи глобальной оптимизации и внедрить ее в алгоритм с локальной настройкой;
4) провести вычислительные эксперименты и сравнить эффективность построенных алгоритмов на тестовых функциях.
✅ Заключение
Был реализован алгоритм липшицевой глобальной оптимизации с локальной настройкой и проведена оценка количества итераций, необходимых для нахождения глобального минимума тестовой функции f(x) на заданном интервале [а, Ь]. В дальнейшем эти данные будут являться ключевыми в определении качества разработанного алгоритма с нейронной сетью.
Была разработана модель нейронной сети, проанализированы признаки функции, которые могут быть использованы при обучении нейронной сети. В качестве функции активации использовалась функция ReLU. Поскольку решалась задача регрессии, была выбрана функция потерь MSE - средняя квадратическая ошибка, так как она является наиболее подходящей для такого типа задач.
Был разработан алгоритм липшицевой глобальной оптимизации с локальной настройкой с интегрированной в него нейронной сетью. Обученная сеть используется в алгоритме для расчета параметров этого алгоритма, таким образом, снижая количество итераций для нахождения оптимального решения.
Алгоритм был разработан на языке Python 3.6 в среде разработки Google Colab. Обучение нейронной сети алгоритма занимает около 20-ти секунд, а в режиме прогнозирования на все тестовые задачи приходится около 3-х секунд.
Алгоритм был протестирован на разных наборах данных: изменялись обучающая выборка, количество слоев, нейронов и эпох. В результате тестирования были подобраны лучшие параметры, при которых среднее количество итераций алгоритма было наименьшим. В результате экспериментальных вычислений было выявлено, что эффективность разработанного алгоритма на 36% лучше алгоритма глобальной оптимизации с локальной настройкой.
Таким образом все поставленные задачи были выполнены, цель работы достигнута.





