Тип работы:
Предмет:
Язык работы:


Программная система для автоматизированной настройки параметров алгоритмов оптимизации

Работа №80237

Тип работы

Дипломные работы, ВКР

Предмет

автоматика и управление

Объем работы97
Год сдачи2016
Стоимость4315 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
88
Не подходит работа?

Узнай цену на написание


ВВЕДЕНИЕ 8
Исследовательская часть
1. Задача мета-оптимизации 10
1.1. Классификация методов мета-оптимизации 10
1.1.1. Настройка параметров 11
1.1.2. Управление параметрами 12
1.1.3. Сравнение подходов к мета-оптимизации 12
1.2. Методы настройки параметров 14
1.2.1. Мета-стохастические поисковые методы 16
1.2.2. Методы выборки 18
1.2.3. Скрининговые методы 19
1.2.4. Методы настройки с использованием мета-модели 20
1.2.5. Сравнение методов настройки 22
1.3. Выводы 25
Конструкторская часть
2. Разработка метода перманентной настройки параметров 26
2.1. Постановка задачи настройки параметров 26
2.2. Схема метода перманентной настройки параметров 27
2.3. Методы поиска эффективных стратегий 33
2.3.1. Метод локальной унимодальной выборки 34
2.3.2. Генетический алгоритм 35
2.4. Метод построения мета-модели 39
2.5. Метод классификации пользовательских задач 42
2.6. Выводы 45
Технологическая часть
3. Программная реализация 46
3.1. Выбор средств разработки 46
3.2. Система автоматизированной настройки параметров 49
3.2.1. Архитектура системы 50
3.2.2. Классификация пользовательских задач 52
3.2.3. Параметры базового алгоритма 53
3.2.4. Начальное исследование пространства стратегий 54
3.3. Проектирование базы данных 56
3.4. Выводы 58
4. Вычислительный эксперимент 59
4.1. Базовый алгоритм 59
4.2. Тестовые функции 64
4.3. Результаты 66
4.4. Выводы 68
Организационно-Экономическая часть
5. Расчет стоимости разработки и внедрения системы 72
5.1. Организация процесса разработки 72
5.2. Расчет затрат на внедрение и цена продукта 75
Охрана труда и экология
6. Проектирование рабочего помещения 77
6.1. Организация рабочих мест 77
6.2. Микроклимат 80
6.3. Шум и вибрация 81
6.4. Освещение 82
6.5. Расчет освещения 84
ЗАКЛЮЧЕНИЕ 87
СПИСОК ЛИТЕРАТУРЫ 89
ПРИЛОЖЕНИЯ 94


В связи со стремительным развитием технологий производства и ростом сложности выпускаемой продукции, усложняются и методы синтеза проектных решений. Успех производителя во многом зависит от используемых средств автоматизированного проектирования и инженерного анализа. Передовое программное обеспечение и высокая производительность алгоритмов решения задач САПР определяют качество продукта и сроки его разработки. Немаловажной задачей является отыскание оптимальных значений параметров технических объектов.
Процесс оптимизации параметров инженерных изделий требует огромных вычислительных затрат. Высокие темпы развития технологий подразумевают разработку и использование СЭА-систем, включающих современные и сложные методы оптимизации.
Большинство методов оптимизации имеют свободные параметры, которые определяют их эффективность. Разработчики метода оптимизации предоставляют рекомендуемые значения свободных параметров из расчета на его стабильное поведение при решении максимально широкого спектра оптимизационных задач. Но эти значения не универсальны и, вообще говоря, значения параметров должны подбираться с учетом свойств решаемых оптимизационных задач, что требует понимания процесса оптимизации со стороны пользователя. Эффективность решения оптимизационной задачи во многом зависит от правильной выбора значений параметров используемого метода.
Автоматизация процесса настройки параметров позволит инженерам использовать весь потенциал современных методов оптимизации без помощи специалистов в области математики. Задача поиска оптимальных значений свободных параметров алгоритмов оптимизации называется задачей мета-оптимизации.
В данной работе исследованы основные подходы к решению задачи мета-оптимизации. Сделан обзор имеющихся работ в данной области, проанализированы преимущества и недостатки различных методов мета-оптимизации.
Предложен метод перманентной настройки параметров и разработана программная система для автоматизированной настройки параметров алгоритмов оптимизации.
Цель работы - скомбинировать лучшие качества существующих методов мета-оптимизации для получения универсальной программной системы автоматизированной настройки параметров. Система предназначена для накопления и использования информации о работе настраиваемого алгоритма с целью повышения эффективности его применения.
Преследовалась идея создания гибкого и легкого в использовании программного решения. Внедрение разработанной системы не потребует модификаций используемого алгоритма оптимизации и специальных знаний в области мета-оптимизации, что позволит увеличить эффективность решения оптимизационных задач.
В результате проведенной работы реализована система автоматизированной настройки параметров, содержащая различные методы мета-оптимизации. Описана структура базы данных для хранения информации о процессе настройки и методы взаимодействия с ней. Предложен способ повторного использования имеющейся информации для уменьшения времени настройки.
Для проверки работоспособности системы и эффективности ее применения, проведена настройка свободных параметров метода роя частиц, который широко применяется для решения задач параметрической и структурной оптимизации, машинного обучения. Исследованы результаты испытаний системы автоматизированной настройки и сформулированы выводы.


Возникли сложности?

Нужна помощь преподавателя?

Помощь студентам в написании работ!


1) Обоснована актуальность выбранного направления, включающего исследование различных способов повышения эффективности используемых алгоритмов оптимизации.
2) В результате анализа имеющихся подходов к мета-оптимизации выбрана перманентная настройка параметров, предполагающая отыскание оптимальных стратегий базового алгоритма для решения класса задач.
3) Проведен обзор существующих методов поиска оптимальных стратегий, рассмотрены преимущества и недостатки каждого из них.
4) Предложен метод перманентной настройки параметров с использованием мета-модели, позволяющий помимо нахождения оптимальной стратегии для решения задач определенного класса получить общее представление о пространстве стратегий настраиваемого алгоритма.
5) Рассмотрены основные этапы процесса настройки, описана схема использования предложенного метода перманентной настройки для поиска оптимальных стратегий базового алгоритма при решении различных классов оптимизационных задач.
6) Обоснован выбор используемых для настройки методов поиска оптимальных стратегий и метода построения мета-модели.
7) Для демонстрации эффективности предложенного метода перманентной настройки и проведения вычислительного эксперимента разработана система автоматизированной настройки параметров.
8) Рассмотрены возможные способы организации процесса настройки параметров для различных категорий пользователей разработанной системы.
9) Описаны принципы работы и правила использования системы автоматизированной настройки, спроектирована база данных для хранения информации о процессе настройки базового алгоритма.
10) Разработан программный и графический интерфейс пользователя, реализующий доступные функции системы автоматизированной настройки параметров.
11) В рамках вычислительного эксперимента предложено в качестве примера базового алгоритма использовать метод роя частиц, имеющий четыре свободных параметра.
12) Для исследования выбраны тестовые функции, из числа которых сформированы классы пользовательских задач с целью изучения влияния состава класса на оптимальность найденных стратегий.
13) Представлены и проанализированы результаты проведенного
исследования, демонстрирующие целесообразность применения предложенного метода перманентной настройки для повышения эффективности используемых алгоритмов оптимизации.
14) Получены графики, показывающее постепенное уменьшение значения показателя эффективности настроенных параметров. В среднем через 50 итераций настройки показатели эффективности назначаемых системой стратегий оказывались лучше, чем у рекомендуемых параметров. После стагнации поиска в пространстве стратегий наблюдалось в среднем до 30% прироста эффективности.
15) Произведен расчет стоимости разработки и внедрения предложенного программного решения для распространения в составе пакетов для анализа проектных решений. Спроектирована система освещения рабочего помещения команды разработчиков.
16) В Приложении Bпредставлены разработанные графические листы.



1. Eiben A. E., Michalewicz Z., Schoenauer M., Smith J. E. Parameter Control in Evolutionary Algorithms // Parameter Setting in Evolutionary Algorithms. Springer Verlag. 2007. Vol. 2. P. 19-46. DOI:http://dx.doi.org/10.1007/978-3-540-69432-8 2
2. Smit S. K. Parameter tuning and scientific testing in evolutionary algorithms. - Vrije Universiteit. 2012. Available at:http://dspace.ubvu.vu.nl/bitstream/handle/1871/38404/dissertation.pdf, accessed 01.03.16.
3. Mercer R. E., Sampson J. R. Adaptive search using a reproductive meta¬plan // Kybernetes. 1978. Vol. 7(3). P. 215-228. DOI:10.1108/eb005486
4. Grefenstette J. J. Optimization of control parameters for genetic algorithms // Systems, Man and Cybernetics, IEEE Transactions on. 1986. Vol. 16(1). P. 122-128. DOI:10.1109/TSMC.1986.289288
5. Hutter F., Hoos H. H., Stutzle T. Automatic algorithm configuration based on local search // AAAI. 2007. Vol. 7. P. 1152-1157. Available at: http://www.aaai.org/Papers/AAAI/2007/AAAI07-183.pdf, accessed 20.03.16.
6. Yuan B., Gallagher M. Combining Meta-EAs and racing for difficult EA parameter tuning tasks // Parameter Setting in Evolutionary Algorithms. Springer Berlin Heidelberg. 2007. P. 121-142. DOI:10.1007/978-3-540-69432-8 6
7. Hutter F., Hoos H. H., Leyton-Brown K. Sequential model-based optimization for general algorithm configuration // Learning and Intelligent Optimization. Springer Berlin Heidelberg. 2011. P. 507-523. DOI:10.1007/978-3¬642-25566-3 40
8. Biau G. Analysis of a random forests model // The Journal of Machine Learning Research. 2012. Vol. 13(1). P. 1063-1095. Available at: http://arxiv.org/pdf/1005.0208, accessed 26.03.16.
9. Pedersen M. E. H., Chipperfield A. J. Simplifying particle swarm optimization // Applied Soft Computing. 2010. Vol. 10(2). P. 618-628. DOI: 10.1016/j.asoc.2009.08.029
10. Mersmann O. et al. Exploratory landscape analysis // Proceedings of the 13th annual conference on Genetic and evolutionary computation. ACM. 2011. P. 829-836. DOI:10.1145/2001576.2001690
11. Myers R., Hancock E. R. Empirical modelling of genetic algorithms // Evolutionary computation. 2001. Vol. 9(4). P. 461-493. DOI: 10.1162/10636560152642878
12. Taguchi G. et al. Taguchi methods: design of experiments. Amer Supplier Inst. 1993. Vol. 4.
13. Adenso-Diaz B., Laguna M. Fine-tuning of algorithms using fractional experimental designs and local search // Operations Research. 2006. Vol. 54(1). P. 99-114. Available at:http://opim.wharton.upenn.edu/~sok/papers/a/AdensoDiaz-Laguna-OR.pdf, accessed 29.03.16.
14. Pedersen M. E. H. Tuning & simplifying heuristical optimization. Diss.
University of Southampton. 2010. Available at: http://eprints.soton.ac.uk/
342792/1.hasCoversheetVersion/MEH Pedersen PhD Thesis 2010.pdf, accessed
02.04.16.
15. Goldsman D., Nelson B. L., Schmeiser B. Methods for selecting the best
system // Proceedings of the 23rd conference on Winter simulation. IEEE Computer Society. 1991. P. 177-186. Available at: http: //chern. ie. nthu.edu.tw/
IEEM7103/937814-paper-june23.pdf, accessed 02.04.16.
16. Branke J., Chick S. E., Schmidt C. New developments in ranking and selection: an empirical comparison of the three main approaches // Simulation Conference. Proceedings of the Winter. IEEE. 2005. P. 708-717. DOI: 10.1109/WSC.2005.1574312
17. Maron O., Moore A. W. The racing algorithm: Model selection for lazy learners // Lazy learning. Springer Netherlands. 1997. P. 193-225. DOI: 10.1007/978-94-017-2053-3 8
18. Birattari M., Kacprzyk J. Tuning metaheuristics: a machine learning perspective. Berlin. Springer. 2009. Vol. 197. P. 85-114. DOI:10.1007/978-3-642-00483-4
19. Balaprakash P., Birattari M., Stutzle T. Improvement strategies for the F- Race algorithm: Sampling design and iterative refinement // Hybrid Metaheuristics. Springer Berlin Heidelberg. 2007. P. 108-122. DOI:10.1007/978-3-540-75514-2 9
20. El-Beltagy M. A., Keane A. J. Metalmodeling techniques for evolutionary optimization of computationally expensive problems: promises and limitations. 1999. Available at:http://eprints.soton.ac.uk/23624/1/elbe 99c.pdf, accessed 10.04.16.
21. Jin Y. A comprehensive survey of fitness approximation in evolutionary computation // Soft computing. 2005. Vol. 9(1). P. 3-12. DOI:10.1007/s00500-003-0328-5
22. Czarn A. et al. Statistical exploratory analysis of genetic algorithms // Evolutionary Computation, IEEE Transactions on. 2004. Vol. 8(4). P. 405-421. DOI: 10.1109/TEVC.2004.831262
23. Ramos I. C. O. et al. Logistic regression for parameter tuning on an evolutionary algorithm // Evolutionary Computation 2005. The 2005 IEEE Congress on. IEEE. 2005. Vol. 2. P. 1061-1068. DOI:10.1109/CEC.2005.1554808
24. Francois O., Lavergne C. Design of evolutionary algorithms-A statistical perspective // Evolutionary Computation. IEEE Transactions on. 2001. Vol. 5(2). P. 129-148. DOI:10.1109/4235.918434
25. Coy S. P. et al. Using experimental design to find effective parameter settings for heuristics // Journal of Heuristics. 2001. Vol. 7(1). P. 77-97. DOI: 10.1023/A:1026569813391
26. Bartz-Beielstein T., Parsopoulos K. E., Vrahatis M. N. Analysis of particle swarm optimization using computational statistics // Proceedings of the International Conference of Numerical Analysis and Applied Mathematics (ICNAAM 2004). 2004. P. 34-37. Available at:http://spotseven.de/wordpress/wp-content/papercite-data/pdf/bpv04.pdf, accessed 10.04.16.
27. Lasarczyk C. W. G. Genetische Programmierung einer algorithmischen chemie. PhD thesis, Technische Universiteit Dortmund. 2007. Available at: https://eldorado.tu-dortmund.de/bitstream/2003/25029/1/diss lasarczyk gpac.pdf,accessed 10.04.16.
28. Hutter F. et al. Sequential model-based parameter optimization: An experimental investigation of automated and interactive approaches // Experimental Methods for the Analysis of Optimization Algorithms. Springer Berlin Heidelberg. 2010. P. 363-414. DOI:10.1007/978-3-642-02538-9 15
29. Smit S. K., Eiben A. E., Szlavik Z. An MOEA-based Method to Tune EA
Parameters on Multiple Objective Functions // IJCCI (ICEC). 2010. P. 261-268. Available at: http://www.researchgate.net/profile/SK Smit/publication/
221616389 An MOEAbased Method to T une EA Parameters on Multiple Obj ective Functions/links/54ddf8820cf22a26721d9498.pdf, accessed 10.04.16.
30. Dreo J. Using performance fronts for parameter setting of stochastic metaheuristics // Proceedings of the 11th Annual Conference Companion on Genetic and Evolutionary Computation Conference: Late Breaking Papers. ACM. 2009. P. 2197-2200. DOI:10.1145/1570256.1570301
31. Deb K. et al. A fast and elitist multiobjective genetic algorithm: NSGA-II // Evolutionary Computation, IEEE Transactions on. 2002. Vol. 6(2). P. 182-197. DOI: 10.1109/4235.996017
32. Карпенко А. П. Современные алгоритмы поисковой оптимизации // Алгоритмы, вдохновленные природой: учеб. пособие. М.: Изд-во МГТУ им. НЭ Баумана. 2014. C. 446.
33. Pedersen M. E. H. Tuning &simplifying heuristical optimization. Diss.
University of Southampton. 2010. Available at:
http://eprints.soton.ac.uk/342792/1.hasCoversheetVersion/MEH Pedersen PhD Thesis 2010.pdf, accessed 10.04.16.
34. Holland J. H. Adaptation in natural and artificial systems: an introductory analysis with applications to biology, control, and artificial intelligence // Ann Arbor. MI: University of Michigan Press. 1975. P. 156-180.
35. Kalyanmoy D., Amarendra K. Real-coded genetic algorithms with simulated binary crossover: studies on multimodal and multiobjective problems //Complex Systems. 1995. Vol. 9( 6). P. 431-454.
36. Ugolotti R. Meta-optimization of Bio-inspired Techniques for Object Recognition. Diss. Universita di Parma. Dipartimento di Ingegneria dell'Informazione. 2015. Available at:http://dspace-unipr.cineca.it/bitstream/1889/2827/1/TesiDottoratoUgolottiOnline.pdf, accessed 10.04.16.
37. Friedman J. H. Stochastic gradient boosting //Computational Statistics & Data Analysis. 2002. Vol. 38(4). P. 367-378. DOI10.1016/S0167-9473(01 )00065-2
38. Breiman L. Random forests // Machine learning. 2001. Vol. 45(1). P. 5-32. DOIhttp://dx.doi.org/10.1023/A: 1010933404324
39. Карпенко А. П., Свианадзе З. О. Метод мета-оптимизации поисковых алгоритмов оптимизации // Наука и образование. МГТУ им. Н. Э. Баумана. Электрон. журн. 2011. N 1. С. 1-36. DOI10.7463/0111.0164546
40. Abbasifard M. R., Ghahremani B., Naderi H. A survey on nearest neighbor search methods // International Journal of Computer Applications. 2014. Vol. 95(25). P. 39-52. DOI10.5120/16754-7073
41. Kennedy J., Eberhart C. Particle swarm optimization // Proceedings of IEEE International Conference on Neural Network. 1995. P. 1948-1995. Available at:http://www.ppgia.pucpr.br/~alceu/mestrado/aula3/PSO 2.pdf, accessed 21.04.16.
42. Clerc M., Kennedy J. The particle swarm-explosion, stability, and convergence in a multidimensional complex space // Evolutionary Computation, IEEE Transactions on. 2002. Vol. 6(1). P. 58-73. DOI:10.1109/4235.985692


Работу высылаем на протяжении 30 минут после оплаты.



Подобные работы


©2024 Cервис помощи студентам в выполнении работ