📄Работа №212575

Тема: Применение машинного обучения для одномерного алгоритма глобальной оптимизации с локальной настройкой

📝
Тип работы Дипломные работы, ВКР
📚
Предмет математика и информатика
📄
Объем: 48 листов
📅
Год: 2021
👁️
Просмотров: 23
Не подходит эта работа?
Закажите новую по вашим требованиям
Узнать цену на написание
ℹ️ Настоящий учебно-методический информационный материал размещён в ознакомительных и исследовательских целях и представляет собой пример учебного исследования. Не является готовым научным трудом и требует самостоятельной переработки.

📋 Содержание

Аннотация
ВВЕДЕНИЕ 4
1 МЕТОДЫ РЕШЕНИЯ ЗАДАЧИ ГЛОБАЛЬНОЙ ОПТИМИЗАЦИИ 6
1.1 Постановка задачи глобальной оптимизации 6
1.2 Стохастические алгоритмы глобальной оптимизации 7
1.3 Эвристические алгоритмы глобальной оптимизации 9
1.4 Детерминированные алгоритмы глобальной оптимизации 14
1.5 Постановка задачи построения алгоритма с помощью машинного
обучения 20
1.6 Выводы по разделу 21
2 РАЗРАБОТКА АЛГОРИТМА ГЛОБАЛЬНОЙ ОПТИМИЗАЦИИ
С ИСПОЛЬЗОВАНИЕМ НЕЙРОННОЙ СЕТИ 22
2.1 Построение нейронной сети 22
2.2 Оценка количества испытаний, необходимых для получения
глобального минимума 26
2.3 Алгоритм глобальной оптимизации с локальной настройкой константы
Липшица с применением нейронной сети 29
2.4 Выводы по разделу 32
3 ТЕСТИРОВАНИЕ РАЗРАБОТАННОГО АЛГОРИТМА
С ИСПОЛЬЗОВАНИЕМ НЕЙРОННОЙ СЕТИ 33
3.1 Параметры нейронной сети 33
3.2 Вычислительные эксперименты 34
3.3 Выводы по разделу 43
ЗАКЛЮЧЕНИЕ 44
БИБЛИОГРАФИЧЕСКИЙ СПИСОК 46
ПРИЛОЖЕНИЕ 1 Код программы

📖 Введение

Методы глобальной оптимизации впервые появились в связи с проблемами, связанными с логистикой персонала и управлением транспортировкой. Как правило проблемы формулировались в терминах поиска конфигурации с минимальной стоимостью при соблюдении всех ограничений [22]. В дальнейшем алгоритмы оптимизации стали применяться для решения задач и в других областях: инженерии, экономики и управления, математики. В большинстве случаев требуется найти именно одно оптимальное решение задачи, с чем стандартные локальные методы не справляются, так как целевая функция является многоэкстремальной. В этом случае применяются алгоритмы глобальной оптимизации, позволяющие найти экстремальное значение функции в области определения с учетом различных ограничений на значения переменных.
Многие многомерные задачи можно решить, используя редукцию - сведение сложных задач к более простым. Таким образом многомерные задачи сводятся к нескольким одномерным, которые решаются при помощи одномерных алгоритмов. Одномерные алгоритмы глобальной оптимизации позволяют решать многоэкстремальные задачи, исследуя отдельные факторы многомерных процессов, одномерные процессы и их характеристики. Также, одномерные задачи встречаются в областях электроники и электротехники [3].
Существует несколько классов алгоритмов глобальной оптимизации: стохастические, эвристические и детерминированные. Последний тип алгоритмов - детерминированные, позволяют решать задачи липшицевой глобальной оптимизации. Большой вклад в развитие этих алгоритмов внесли Я.Д. Сергеев и Д.Е. Квасов. Основным преимуществом данных алгоритмов является высокая скорость нахождения решения. Отдельный класс алгоритмов, позволяющий существенно ускорить поиск решения за счет учета локальной информации во всей допустимой области, а не только в окрестности точки глобального минимума, - алгоритмы липшицевой глобальной оптимизации с локальной настройкой [13, 14, 24].
Применение машинного обучения на сегодняшний день является достаточно распространенным в различных сферах человеческой деятельности. Наиболее часто машинное обучение применяется в маркетинге для анализа данных о пользователях платформы или магазина. Кроме этого, машинное обучение в области медицины позволяет наиболее точно диагностировать заболевание и подобрать индивидуальный план лечения, а в структурах контроля безопасности довольно распространены системы распознавания лиц [20].
Цель данной работы - разработка алгоритма глобальной оптимизации с локальной настройкой с применением машинного обучения. Для достижения поставленной цели были сформулированы следующие задачи:
1) провести обзор существующих методов решения задачи глобальной оптимизации;
2) реализовать алгоритм липшицевой глобальной оптимизации с локальной настройкой и оценить количество итераций, необходимых для глобальной минимизации тестовых задач;
3) разработать нейронную сеть для решения задачи глобальной оптимизации и внедрить ее в алгоритм с локальной настройкой;
4) провести вычислительные эксперименты и сравнить эффективность построенных алгоритмов на тестовых функциях.

Возникли сложности?

Нужна качественная помощь преподавателя?

👨‍🎓 Помощь в написании

✅ Заключение

В работе была рассмотрена возможность применения машинного обучения в одномерном алгоритме глобальной оптимизации с локальной настройкой. Были изучены алгоритмы глобальной оптимизации, выявлены их достоинства и недостатки. На основе проведенного анализа был выбран алгоритм липшицевой глобальной оптимизации с локальной настройкой, так как он является наиболее подходящим для решения одномерных задач глобальной оптимизации. Были определены набор функций для тестирования и критерий эффективности, заключающийся в количестве числа итераций для нахождения решения задачи.
Был реализован алгоритм липшицевой глобальной оптимизации с локальной настройкой и проведена оценка количества итераций, необходимых для нахождения глобального минимума тестовой функции f(x) на заданном интервале [а, Ь]. В дальнейшем эти данные будут являться ключевыми в определении качества разработанного алгоритма с нейронной сетью.
Была разработана модель нейронной сети, проанализированы признаки функции, которые могут быть использованы при обучении нейронной сети. В качестве функции активации использовалась функция ReLU. Поскольку решалась задача регрессии, была выбрана функция потерь MSE - средняя квадратическая ошибка, так как она является наиболее подходящей для такого типа задач.
Был разработан алгоритм липшицевой глобальной оптимизации с локальной настройкой с интегрированной в него нейронной сетью. Обученная сеть используется в алгоритме для расчета параметров этого алгоритма, таким образом, снижая количество итераций для нахождения оптимального решения.
Алгоритм был разработан на языке Python 3.6 в среде разработки Google Colab. Обучение нейронной сети алгоритма занимает около 20-ти секунд, а в режиме прогнозирования на все тестовые задачи приходится около 3-х секунд.
Алгоритм был протестирован на разных наборах данных: изменялись обучающая выборка, количество слоев, нейронов и эпох. В результате тестирования были подобраны лучшие параметры, при которых среднее количество итераций алгоритма было наименьшим. В результате экспериментальных вычислений было выявлено, что эффективность разработанного алгоритма на 36% лучше алгоритма глобальной оптимизации с локальной настройкой.
Таким образом все поставленные задачи были выполнены, цель работы достигнута.
Нужна своя уникальная работа?
Срочная разработка под ваши требования
Рассчитать стоимость
ИЛИ

📕 Список литературы

1 Аверинцев, М.Б. Одномерная оптимизация: Конспект лекций / М.Б. Аверинцев, Н.А. Корниенко. - М.: МГУПС (МИИТ), 2016. - 41 с.
2 Бейко, И.В. Методы и алгоритмы решения задач оптимизации / И.В. Бейко, Б.Н. Бублик, П.Н. Зинько. - Киев: Головное издательство издательского объединения «Вища школа», 1983. - 513 с.
3 Власова, И.А. Методы одномерной оптимизации / И.А. Власова. - Самара: Самарский государственный университет, 2015. - 93 с.
4 Гитман, М.Б. Введение в стохастическую оптимизацию: учеб. пособие / М.Б. Гитман. - Пермь: Изд-во Перм. нац. исслед. политехн. ун-та, 2014. - 104 с.
5 Жиглявский, А.А. Математическая теория глобального случайного поиска / А.А. Жиглявский. - Л.: Изд-во Ленингр. ун-та, 1985. - 296 с.
6 Жиглявский, А.А. Методы поиска глобального экстремума / А.А. Жиглявский, А.Г. Жилинкас. - М.: Наука. Гл. ред. Физ.-мат. лит., 1991. - 248 с.
7 Золотарев, А.А. Оптимизация распределительных процессов на основе аналитических методов и эвристических алгоритмов / А.А. Золотарев [и др.] // Вестник науки и образования Северо-Запада России. - 2016. - Т. 2, № 1. - C. 1-9.
8 Кононюк, А. Е. Основы теории оптимизации / А.Е. Кононюк. - Киев: Освгга Украша, 2011. - 692 с.
9 Мицель, А.А. Эвристические методы оптимизации: учеб. пособие /
A. А. Мицель. - Томск: Томский государственный университет систем управления и радиоэлектроники, 2019. - 73 с.
10 Нейдорф, Р.А. Исследование эвристических алгоритмов в задачах прокладки и оптимизация маршрутов в среде с препятствиями / Р.А. Нейдорф,
B. В. Полях // Известия ЮФУ. Технические науки. - 2016. - № 3. - С. 127-143.
11 НОУ ИНТУИТ: Лекция 5: Виды нейронных сетей и способы организации их функционирования. URL: https://intuit.ru/studies/courses/ 61/61/lecture/20442/ (дата обращения: 23.04.2021).
12 Савин, А.Н. Применение алгоритма оптимизации методом имитации отжига на системах параллельных и распределенных вычислений /
A. Н. Савин, Н.Е. Тимофеева // Изв. Сарат. ун-та Нов. сер. Сер. Математика. Механик. Информатика. - 2012. - № 1. - С. 110-116.
13 Сергеев, Я.Д. Диагональные методы глобальной оптимизации / Я.Д. Сергеев, Д.Е. Квасов. - М.: ФИЗМАТЛИТ, 2008. - 352с.
14 Сергеев, Я.Д. Краткое введение в теорию липшицевой глобальной оптимизации: Учебно-методическое пособие / Я.Д. Сергеев, Д.Е. Квасов. - Нижний Новгород: Изд-во ННГУ, 2016. - 48с.
15 Смирнов, А.В. Перспективы применения эвристических методов оптимизации в проектировании радиотехнических и телекоммуникационных устройств и систем // Российский технологический журнал. - 2017. - Т. 5, № 6. - С. 20-33....25

🖼 Скриншоты

🛒 Оформить заказ

Работу высылаем в течении 5 минут после оплаты.

©2026 Cервис помощи студентам в выполнении работ