На сегодняшний день машинное обучение и нейронные сети стали неотъемлемой частью современной науки. Они позволяют анализировать огромные объемы данных, выявлять скрытые закономерности в них и строить достаточно точные прогнозы. Это важно, поскольку данные, часто слишком сложные для восприятия человеком, могут быть эффективно обработаны и проанализированы компьютерами с использованием искусственного интеллекта.
Применение методов машинного обучения и нейронных сетей позволяет решать разнообразные сложные задачи, включая задачи гидроаэромеханики. В контексте этой дисциплины, машинное обучение позволяет автоматизировать процессы анализа данных, прогнозирование результатов и создание высокоэффективных моделей, что в свою очередь улучшает понимание процессов и явлений, которые ранее могли быть сложными для восприятия или анализа. К подобным задачам можно отнести моделирование высокоскоростных течений, например, при обтекании сферы пятикомпонентной воздушной смесью [36], или подбор оптимальной аэромеханической формы тела [16]. Также одной из перспективных задач является расчет поуровневых коэффициентов скорости колебательных энергообменов. В работе [35] было предложено решение расчета с помощью регрессионных аппроксимаций, однако, моделирование можно провести с использованием нейросетевых технологий.
Важным аспектом машинного обучения является применение оптимизационных алгоритмов. Это необходимо при решении различных типов задач с использованием нейронных сетей, поскольку оптимизаторы позволяют настраивать параметры модели таким образом, чтобы минимизировать функцию потерь. Это позволяет улучшить производительность моделей и повысить точность их прогнозирования. Существуют различные подходы для решения задач оптимизации. В нейронных сетях, как правило, используют алгоритмы, основанные на вычислении градиента или гессиана оптимизируемой функции. К алгоритмам первого порядка, которые используют градиент для вычисления локального минимума, можно отнести стохастический градиентный спуск (SGD) [19], Adam [14] и т.д. Методы второго порядка для оптимизации используют матрицу Гессе, также к ним относятся квазиньютоновские алгоритмы, основанные на приближенных выражениях для матрицы Гессе, например, BFGS [9].
Одним из распространенных подходов для разработки интерактивных веб-приложений, предназначенных для анализа данных и применения методов машинного обучения, является использование фреймворка Streamlit [29]. С помощью данного инструмента на кафедре гидроаэромеханики было разработано приложение machine-learning-ui в рамках исследовательского проекта, финансируемого Санкт-Петербургским государственным университетом, для решения задач неравновесной газодинамики с использованием методов машинного обучения. Целью настоящей работы является реализация и интеграция в приложение machine-learning-ui оптимизационных алгоритмов AdaMod [4], MADGRAD [6], RAdam [24], Apollo [18], AdaHessian [1], LARS [32], LAMB [15], их сравнение и решение задачи расчета поуровневых коэффициентов скорости колебательных энергообменов с помощью нейросетевой модели с различными оптимизаторами.
В ходе работы были получены следующие результаты:
1. На языке Python с использованием библиотеки TensorFlow были реализованы и интегрированы в приложение machine-learning- ui оптимизационные алгоритмы: AdaMod, RAdam, MADGRAD, Apollo, AdaHessian, LARS, LAMB.
2. Была проведена апробация алгоритмов. Модель нейросети со всеми оптимизаторами сошлась в течение 30 эпох.
3. Была решена задача расчета поуровневых коэффициентов скорости колебательных энергообменов для пар частиц (O2-O, O2-Ar, O2-O2) с применением нейросетевого подхода. Была подобрана подходящая топология модели для текущей задачи. Обучение модели с различными оптимизационными алгоритмами заняло менее 6 секунд для каждого набора данных с учетом масштабирования. Значение ошибки при валидации реализованных оптимизаторов составило от 0,3 до 0,004, а средняя ошибка после обратного масштабирования оказалась равной — 1,19 х 10-17. Предсказанные значения оказались близки к истинным.
С кодом реализованных оптимизационных алгоритмов можно ознакомиться по ссылке в репозитории проекта: https: //github.com/daffeu/machine-learning-ui/tree/optimizers/src/ mlui/CustomOptimizers.
ao Zhewei, Gholami Amir, Shen Sheng et al. ADAHESSIAN: An Adaptive Second Order Optimizer for Machine Learning.— 2021.— 2006.00719.
[2] Adamovich Igor V. Three-Dimensional Analytic Model of Vibrational Energy Transfer in Molecule-Molecule Collisions // AIAA Journal.— 2001.— Vol. 39, no. 10.— P. 1916-1925.— https://doi.org/10.2514/2.1181.
[3] Adamovich Igor V., Rich J. William. Three-dimensional nonpertur- bative analytic model of vibrational energy transfer in atom-molecule collisions // The Journal of Chemical Physics.— 1998. —11.— Vol. 109, no. 18.— P. 7711-7724.— https://pubs.aip.org/aip/jcp/article- pdf/109/18/7711/19114845/7711_1_online.pdf.
[4] Ding Jianbang, Ren Xuancheng, Luo Ruixuan, Sun Xu. An Adaptive and Momental Bound Method for Stochastic Learning. — 2019. — 1910.12249.
[5] CSS. — URL: https://www.w3.org/Style/CSS/Overview.en.html.
[6] Defazio Aaron, Jelassi Samy. Adaptivity without Compromise: A Mo- mentumized, Adaptive, Dual Averaged Gradient Method for Stochastic Optimization. — 2021. — 2101.11075.
[7] Duchi John C., Hazan Elad, Singer Yoram. Adaptive Subgradient Methods for Online Learning and Stochastic Optimization // J. Mach. Learn. Res. — 2011. — Vol. 12. — P. 2121-2159. — URL: https://api. semanticscholar.org/CorpusID:538820.
[8] Facebook. PyTorch.— URL: https://pytorch.org/.
[9] Fletcher, Roger. Practical Methods of Optimization (2nd ed.).— New York, USA : John Wiley & Sons, 1987.- ISBN: 978-0-471-91547-8.
[10] Google Brain. TensorFlow. — URL: https://www.tensorflow.org.
[11] Gradient Descent Only Converges to Minimizers / Jason D. Lee, Max Simchowitz, Michael I. Jordan, Benjamin Recht // 29th Annual Conference on Learning Theory / Ed. by Vitaly Feldman, Alexander Rakhlin, Ohad Shamir. — Vol. 49 of Proceedings of Machine Learning Research. — Columbia University, New York, New York, USA : PMLR, 2016.-23-26 Jun.— P. 1246-1257.— URL: https: //proceedings.mlr.press/v49/lee16.html.
[12] HTML. — URL: https://www.w3.org/html/.
[13] Hinton. Root Mean Square Propagation.— URL: http://www.cs. toronto.edu/~tijmen/csc321/slides/lecture_slides_lec6.pdf.
[14] Kingma Diederik P., Ba Jimmy. Adam: A Method for Stochastic Optimization. — 2017. — 1412.6980.
[15] You Yang, Li Jing, Reddi Sashank et al. Large Batch Optimization for Deep Learning: Training BERT in 76 minutes. — 2020. — 1904.00962.
[16] Li Jichao, Du Xiaosong, Martins Joaquim R.R.A. Machine learning in aerodynamic shape optimization // Progress in Aerospace Sciences. — 2022. — Vol. 134. — P. 100849. — URL: https://www.sciencedirect. com/science/article/pii/S0376042122000410.
[17] Log-Cosh loss.— URL: https://www.tensorflow.org/api_docs/ python/tf/keras/losses/logcosh.
[18] Ma Xuezhe. Apollo: An Adaptive Parameter-wise Diagonal QuasiNewton Method for Nonconvex Stochastic Optimization.— 2021.— 2009.13586.
[19] Matt Taddy. Business Data Science: Combining Machine Learning and Economics to Optimize, Automate, and Accelerate Business Decisions. — New York, USA : McGraw Hill, 2019.- ISBN: 978-1-26045277-8.
... Всего источников –36