🔍 Поиск работ

Применение машинного обучения в одномерном алгоритме глобальной оптимизации

Работа №206982

Тип работы

Дипломные работы, ВКР

Предмет

прикладная информатика

Объем работы43
Год сдачи2020
Стоимость4430 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
11
Не подходит работа?

Узнай цену на написание


АННОТАЦИЯ 2
ВВЕДЕНИЕ 4
1 РАССМОТРЕНИЕ АЛГОРИТМОВ РЕШЕНИЯ ОДНОМЕРНОЙ
ЗАДАЧИ И МЕТОДОВ ОЦЕНКИ КОНСТАНТЫ ЛИПШИЦА 6
1.1 Алгоритм решения задач с недифференцируемой целевой функ¬цией и априорно заданной оценкой константы Липшица 6
1.2 Алгоритм информационно-статистического метода решения задач
с недифференцируемой целевой функцией с адаптивным оцениванием глобальной константы Липшица 7
1.3 Алгоритм решения задач геометрическим методом с недифферен¬
цируемой целевой функцией и адаптивным оцениванием локальных констант Липшица 10
1.4 Способы оценивания константы Липшица 12
2 МЕТОДЫ МАШИННОГО ОБУЧЕНИЯ И РАЗРАБОТАНЫЙ
АЛГОРИТМ 15
2.1 Обучение нейронной сети 15
2.2 Информационно-статистический метод решения задач с недиф¬
ференцируемой целевой функцией и адаптивным оцениванием глобальной константы Липшица 17
3 ИСХОДНЫЕ ДАННЫЕ И РЕЗУЛЬТАТЫ ВЫЧИСЛИТЕЛЬНЫХ
ЭКСПЕРИМЕНТОВ 21
ЗАКЛЮЧЕНИЕ 32
БИБЛИОГРАФИЧЕСКИЙ СПИСОК 33
ПРИЛОЖЕНИЕ 1 Код алгоритма решения задач геометрическим методом с недифференцируемой целевой функцией и адаптивным оцениванием локальных констант Липшица с применением машинного обучения 36


Одномерные задачи глобальной оптимизации являются базовыми алгоритмами, которые используются для построения быстрых многомерных методов. У таких задач имеется практическое значение, они нередко возникают в различных областях: электроники, электротехники и многих других.
Сложности решения одномерных задач связаны с требованием большого количества вычислительных ресурсов. Для решения таких задач используются алгоритмы, которые были специально разработаны для решения одномерной задачи:
f * = f (х*) = minf (х), (1)
где а < х < b. В таких задачах целевая функция f (х) будет являться многоэкстремальной функцией, которая выполняет условие Липшица.
Рассматриваются три подхода решения одномерных задач глобальной оптимизации. Первый подход состоит из различных методов геометрического типа, которые в процессе поиска глобального решения создают дополнительные функции. Данные функции аппроксимируют целевую функцию f (х) в области поиска.
Второй подход является информационно-статистическим. Данный подход объединяет методы, в алгоритмах которых поиск глобального минимума строятся на основе вероятностной модели целевой функции.
Третий подход даёт возможность создать методы глобальной оптимизации, которые в процессе поиска настраиваются на локальное поведение целевой функции в различных частях допустимой области. Суть метода заключается в сопряжении глобальной и локальной информации при адаптивном оценивании локальных констант Липшица.
Рассмотренные выше методы показывают различные способы нахождения и использования оценок константы Липшица, которые используются при решении одномерных задач и решении задач глобальной оптимизации. Именно поэтому для построения быстрых многомерных методов в качестве ключевых алгоритмов используют данные методы.
Цель данной работы - реализация алгоритма глобальной оптимизации с применением машинного обучения.
Основным задачами, решаемыми в ходе выполнения данной выпускной квалификационной работы, являются:
- обзор методов одномерной оптимизации;
- обзор методов оценки константы Липшица;
- реализация алгоритма с локальной настройкой константы Липшица;
- обучение метода машинного обучения;
- подстановка метода машинного обучения в алгоритм;
- проведение вычислительных экспериментов.


Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В процессе данной работы были рассмотрены следующие алгоритмы:
1) алгоритм решения задач с недифференцируемой целевой функцией и априорно заданной оценкой константы Липшица;
2) алгоритм информационно-статистического метода решения задач с недифференцируемой целевой функцией с адаптивным оцениванием глобальной константы Липшиц;
3) алгоритм решения задач геометрическим методом с недифференцируемой целевой функцией и адаптивным оцениванием локальных констант Липшица.
Реализован информационно-статистический метод решения задач с недифференцируемой целевой функцией и адаптивным оцениванием глобальной константы Липшица с интегрированной в него нейронной сетью.
Проведены вычислительные результаты с использованием алгоритма.



1. Гришагин, В.А. Сравнительная оценка эффективности синхронных и асинхронных рекурсивных алгоритмов глобальной оптимизации. Материалы третьего Международного научно-практического семинара «Высокопроизводительные параллельные вычисления на кластерных системах» / В.А. Гришагин, Д.Е. Квасов, Я.Д. Сергеев // Н. Новгород: Издательство ННГУ. - 2003. - С. 243-246.
2. Иванов, В.В. Об оптимальных алгоритмах минимизации функций некоторых классов / В.В. Иванов //Кибернетика. - 1972. - Т. 4. - С. 81-94.
3. Марчук, Г.И. Методы вычислительной математики. 3-е издание / Г.И. Марчук. - М.: Наука - 1989.
4. Неймарк, Ю.И. Информационный подход к задаче поиска экстремума функций. Изв. АН СССР. Техническая кибернетика / Ю.И. Неймарк, Р.Г. Стронгин // 1966. - Т. 1. - С. 17-26.
5. Нейронные сети. Просто - Youtube [Электронный ресурс]. - Режим доступа: https://www.youtube.com/playlist?list=PLDywto_IU4_4nP7LUZRzQ5Q KoglE-WBtT (дата и время обращения: 19.05.2020 15:04).
6. НОУ ИНТУИТ. Лекция. Методы Классификации и прогнозирования. Нейронные сети [Электронный ресурс]. - Режим доступа: www.intuit.ru/ studies/courses/6/6/lecture/178 (дата и время обращения: 20.05.2020 20:25).
7. Пиявский, С.А. Алгоритмы отыскания абсолютного минимума функций. Теория оптимальных решений / С.А. Пиявский. - Киев: Издательство ИК АН УССР, 1967. - С. 13-24.
8. Пиявский, С.А. Один алгоритм отыскания абсолютного экстремума функции. Ж. вычисл. матем. и матем. ф и з / С.А. Пиявский. - 1972. - Т. 12, № 4. - С. 888-896.
9. Сергеев, Я.Д. Введение в параллельную глобальную оптимизацию / Я.Д. Сергеев, Р.Г. Стронгин, В.А. Гришагин // Н. Новгород: Издательство ННГУ. - 1998.
10. Сергеев, Я.Д. Диагональные методы глоб. оптимизации / Я.Д. Сергеев, Д.Е. Квасов // М.: ФИЗМАТЛИТ. - 2008. - 352 с.
11. Сергеев Я.Д. Краткое введение в теорию липшицевой глобальной оптимизации: учебно-методическое пособие / Я.Д. Сергеев, Д.Е. Квасов // Нижний Новгород: Изд-во ННГУ. - 2016. - 48 с.
12. Сергеев, Я.Д. Одномерный детерминированный алгоритм глобальной минимизации. Ж. вычисл. матем и матем. физ / Я.Д. Сергеев. - 1995. - С. 705-717.
13. Стронгин, Р.Г. Информационный метод многоэкстремальной минимизации при измерениях с помехами. Изв. АН СССР / Р.Г. Стронгин // Техническая кибернетика. - 1969. - Т. 6. - С. 118-126.
14. Стронгин, Р.Г. О сходимости одного алгоритма поиска глобального экстремума. Изв. АН СССР / Р.Г. Стронгин // Техническая кибернетика. - 1973. - С. 10-16.
15. Стронгин, Р.Г. Численные методы в многоэкстремальных задачах / Р.Г. Стронгин. - М.: Наука - 1978. - 128 с...25



Работу высылаем на протяжении 30 минут после оплаты.




©2026 Cервис помощи студентам в выполнении работ