📄Работа №215554

Тема: Применение нейронных сетей в задаче глобальной оптимизации липшицевых функций

📝
Тип работы Дипломные работы, ВКР
📚
Предмет программирование
📄
Объем: 55 листов
📅
Год: 2022
👁️
Просмотров: 10
Не подходит эта работа?
Закажите новую по вашим требованиям
Узнать цену на написание
ℹ️ Настоящий учебно-методический информационный материал размещён в ознакомительных и исследовательских целях и представляет собой пример учебного исследования. Не является готовым научным трудом и требует самостоятельной переработки.

📋 Содержание

АННОТАЦИЯ 2
ВВЕДЕНИЕ 6
1 ОБЗОР СУЩЕСТВУЮЩИХ АЛГОРИТМОВ РЕШЕНИЯ ЗАДАЧИ ГЛОБАЛЬНОЙ ОПТИМИЗАЦИИ ЛИПШИЦЕВОЙ ФУНКЦИИ 9
1.1 Равномерный перебор точек 9
1.2 Локальные методы оптимизации 11
1.3 Методы оценки константы Липшица 13
1.4 Выводы по разделу 15
2 АЛГОРИТМ РЕШЕНИЯ ЗАДАЧИ ГЛОБАЛЬНОЙ ОПТИМИЗАЦИИ ЛИПШИЦЕВОЙ ФУНКЦИИ С НЕЙРОННОЙ СЕТЬЮ 16
2.1 Описание НС алгоритма 16
2.2 Сбор обучающего набора данных 18
2.3 Выводы по разделу 20
3 ОБУЧЕНИЕ НЕЙРОННОЙ СЕТИ. ЧИСЛЕННЫЕ ЭКСПЕРИМЕНТЫ 21
3.1 Изменение количества нейронов в скрытых слоях 22
3.2 Способы формирования обучающего набора данных 37
3.3 Формулы оценки локальной константы Липшица 48
3.4 Выводы по разделу 51
ЗАКЛЮЧЕНИЕ 53
БИБЛИОГРАФИЧЕСКИЙ СПИСОК 54

📖 Введение

Глобальная оптимизация - одна из наиболее актуальных и бурно развивающихся областей, так как число прикладных задач принятия решений, которые могут выражаться многоэкстремальными функциями, растет и развивается вычислительная техника. В большинстве таких задач недостаточно просто найти один из локальных минимумов, так как глобальный способен дать существенный выигрыш по сравнению с каким - либо другим.
При этом целевая функция и ограничения могут задаваться в форме черного ящика, то есть в виде некоторого вычислительного алгоритма, на вход которого подается аргумент, а на выходе значение функции, причем внутреннее устройство такого алгоритма может быть неизвестным или сложным с вычислительной точки зрения. Также может отсутствовать дифференцируемость функции. Вышеперечисленные свойства значительно усложняют поиск глобального оптимума, делают невозможным применение многих классических методов решения этой задачи [2, 3, 6, 9, 10].
Построение схем нахождения глобального оптимума, способных менять направление поиска в зависимости от текущей информации, возможно благодаря определенным априорным предположениям о характере рассматриваемой проблемы. Такие предположения играют ключевую роль при разработке быстрых алгоритмов глобального поиска и служат основным математическим инструментом для получения оценок глобального решения после остановки алгоритма [14].
Одним из естественных и важных (как в теоретическом, так и в прикладном отношениях) допущений о задаче глобальной оптимизации (1) является предположение об ограниченности относительных изменений целевой функции /(х), выраженное в формуле (2). Оно связано с тем, что отношения приращений функций к соответствующим приращениям
аргументов обычно не могут превышать некоего порога, определяемого ограниченной энергией изменений в системе, который может быть описан с использованием действительной положительной константы L. В таком случае функция f(x) называется липшицевой, а сама задача - задачей липшицевой глобальной оптимизации.
f* = f (x*) = min f(x), x G [a, b], (1)
|f(x‘) — f(x")| < L|x‘— x"|, Vx',x" G [a, b], 0 < L < ш, (2) где f* - значение искомого глобального минимума с координатой x*. На рисунке 1 показан пример липшицевой функции.

Рисунок 1 - Липшицевая функция

Рассмотрим задачу идентификации параметров [12, 18]. Пусть имеются некоторые экспериментальные данные из входных х1 и выходных у^ (/ = 1, п), где п - количество данных, а также математическая модель Р(х, 2), где х = (х1, .,хт) - входной вектор размерности т, 2 = (21, ...,2р) - вектор параметров размерности р. Тогда для того, чтобы модель Г(х,2) была адекватной, то есть чтобы мало отличалась от экспериментальных данных, составим квадратичную функцию невязки /(2):
n
l(A) = ^(F(xl,X)-y^2, (3)
¿ = 1
затем решим задачу:
1(Л) ^ min. (4)
Тогда набор параметров Л* = (Л1, _, Я.^), являющийся решением задачи (4), и будет являться оптимальным набором параметров для математической модели F(x,Л). Для решения задачи (4) часто применяются инструменты глобальной липшицевой оптимизации. Также эти методы применяются в задаче отыскания первого левого нуля в множестве сигналов [20].
Целью работы является построение алгоритма глобальной оптимизации липшицевой целевой функции с использованием нейронных сетей.
Задачи:
- изучить существующие алгоритмы глобальной оптимизации, их достоинства и недостатки;
- модифицировать алгоритм поиска глобального минимума, использующий нейросеть для оценки локальной константы Липшица;
- построить и обучить нейросеть для алгоритма глобальной минимизации;
- выполнить сравнение эффективности построенного алгоритма на тестовых функциях.

Возникли сложности?

Нужна качественная помощь преподавателя?

👨‍🎓 Помощь в написании

✅ Заключение

В ходе работы были решены следующие задачи:
1) изучены существующие алгоритмы глобальной оптимизации, их достоинства и недостатки. Рассмотрен алгоритм равномерного перебора точек, локальные методы оптимизации, в том числе градиентный спуск и классический метод решения задачи оптимизации с помощью производных, также рассмотрен метод решения задачи глобальной оптимизации с помощью априорно заданной константы Липшица;
2) модифицирован алгоритм поиска глобального минимума, использующий нейросеть для оценки локальной константы Липшица, описан способ получения истинной константы Липшица для обучения нейронной сети. Отличие алгоритма заключается лишь в способе оценки локальной константы Липшица;
3) построена и обучена нейросеть для алгоритма глобальной минимизации. Использовалась многослойная полносвязная нейронная сеть, так как хорошо подходит для задачи регрессии;
4) выполнено сравнение эффективности построенного алгоритма на тестовых функциях. Удалось добиться уменьшения отношения среднего числа вычислений функции в точках НС алгоритма к среднему числу вычислений функции в точках классического алгоритма НЛ на 16,5%.
Таким образом, все поставленные задачи полностью решены, а цель достигнута. В дальнейшем планируется доказать сходимость алгоритма теоретически.

Нужна своя уникальная работа?
Срочная разработка под ваши требования
Рассчитать стоимость
ИЛИ

📕 Список литературы

1 Антипин, А. С. О неградиентных методах оптимизации седловых функций / А. С. Антипин // Вопросы кибернетики. Методы и алгоритмы анализа больших систем. – Москва: АН СССР, 1988. – С. 4–13.
2 Бертсекас, Д. Условная оптимизация и методы множителей Лагранжа: Пер. с англ. / Д. Бертсекас. – Москва: Радио и связь, 1987. – 400 с.
3 Васильев, Ф. П. Методы оптимизации / Ф. П. Васильев. – Москва: Издательство «Факториал Пресс», 2002. – 824 с.
4 Васильев, Ф. П. Численные методы решения экстремальных задач: Учеб. Пособие для вузов. / Ф. П. Васильев. – Москва: Наука, 1988. – 552 с.
5 Волковец А. И. Теория вероятностей и математическая статистика: Конспект лекций для студ. Всех спец. и форм обучения БГУИР / А. И. Волковец, А. Б. Гуринович. – Минск: БГУИР, 2003. – 84 с.
6 Гергель, В. П. Алгоритм глобального поиска с использованием производных / В. П. Гергель. Под ред. Ю. И. Неймарка // Динамика систем: Межвуз. тематич. сб. науч. тр. – Горький: ГГУ, 1992. – С. 161–178.
7 Гмурман, В. Е. Руководство к решению задач по теории вероятностей и математической статистике: Учеб. Пособие для студентов вузов / В. Е. Гмурман. – 9-е изд., стер. – Москва: Высшая школа, 2004. – 404 с.
8 Гмурман, В. Е. Теория вероятностей и математическая статистика: Учеб. Пособие для вузов / В. Е. Гмурман. – 9-е изд., стер. – Москва: Высшая школа, 2003. – 479 с.
9 Данилин, Ю. М. Об одном алгоритме отыскания абсолютного минимума / Ю. М. Данилин, С. А. Пиявский // Теория оптимальных решений. – Киев: Изд-во ИК АН УССР, 1967. – Т. 2. – с. 25–37.
10 Демьянов, В. Ф. Условия экстремума и вариационное исчисление / В. Ф. Демьянов – Москва: Высшая школа, 2005. – 334 c.
11 Кормен, Т. Х. Алгоритмы: построение и анализ / Т. X. Кормен, Ч. И. Лейзерсон, Р. Л. Ривест, К. Штайн. – 2-е изд.: Пер. с англ. – Москва: Издательский дом «Вильямс», 2005. – 1296 с.
12 Льюинг, Л. Идентификация систем. Теория для пользователя / под ред. Я. З. Цыпкина. – Москва: Наука, 1991. – 432 с.
13 Осовский, С. Нейронные сети для обработки информации / С. Осовский; Пер. с пол. И. Д. Рудинского. – Москва: Финансы и статистика, 2002. – 343 с.
14 Сергеев, Я. Д. Диагональные методы глобальной оптимизации / Я. Д. Сергеев, Д. Е. Квасов. – Москва: ФИЗМАТЛИТ, 2008. – 352 с.
15 Сергеев, Я. Д. Краткое введение в теорию липшицевой глобальной оптимизации: учебно-методическое пособие / Я. Д. Сергеев, Д. Е. Квасов. – Нижний Новгород: ННГУ им. Н. И. Лобачевского, 2016. – 48 с. Текст: электронный // Лань: электронно-библиотечная система. – URL:
https://e.lanbook.com/book/153113 (дата обращения: 21.05.2022)..20

🖼 Скриншоты

🛒 Оформить заказ

Работу высылаем в течении 5 минут после оплаты.

©2026 Cервис помощи студентам в выполнении работ