Тип работы:
Предмет:
Язык работы:


Исследование и применение алгоритмов на базе консенсуса для распределенного обучения нейронных сетей

Работа №128316

Тип работы

Бакалаврская работа

Предмет

информатика

Объем работы36
Год сдачи2021
Стоимость4290 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
14
Не подходит работа?

Узнай цену на написание


Введение 3
Постановка задачи 5
Глава 1. Теория 6
1.1. Задача машинного обучения 6
1.2. Алгоритм среднего консенсуса 6
1.3. Быстрая сходимость 9
1.4. Консенсус и задача МО 9
1.5. Алгоритм сплетен 10
Глава 2. Обзор 12
Глава 3. Алгоритм 14
3.1. Средний консенсус 14
3.2. Несбалансированные данные 15
3.3. Сплетни 16
Глава 4. Эксперименты 18
4.1. Выбор модели и датасета 18
4.2. Преобразование данных 19
4.3. Разминка модели 19
4.4. Увеличение скорости обучения 20
4.5. Топология сети 22
4.6. Основные эксперименты 26
Выводы 35
Заключение 36
Список литературы


С каждым годом количество накопленных человечеством данных растет. Современное аппаратное обеспечение часто не позволяет проводить вычисления с большим количеством данных на одной машине. Это часто связано, во-первых, с ограниченным объемом оперативной памяти компьютера, а во-вторых, с ограниченным временем на решение конкретной задачи. Для области машинного обучения актуальны обе перечисленные проблемы. Часто для достижения требуемого результата необходимо обучение нейронной сети с множеством параметров на огромном объеме данных. Это препятствует прогрессу в исследованиях и разработках. В связи с этим существует потребность в методах распределенного обучения. Они позволяют не ограничиваться мощностями одной машины при конструировании новых методов в машинном обучении и ускоряют уже существующие решения.
Помимо этого на практике часто возникает потребность обрабатывать информацию разной степени приватности. В некоторых случаях при обучении нейронной сети используются данные, распространение которых запрещено или нежелательно. Отличным примером этого является какой-либо совместный проект двух банков, в ходе которого они хотят решить общую задачу, но не могут передать, пусть даже и обезличенные, данные своих клиентов друг другу. В этом случае возникает необходимость использовать методы распределенного обучения, которые обеспечивали бы изоляцию данных.
Топология сети и методы взаимодействия узлов являются важными свойствами распределенных систем. Не всегда вычислительные кластеры имеют регулярную структуру, часто доступные вычислительные ресурсы представляют собой гетерогенную компьютерную сеть, где пропускная способность каналов связи и мощности каждого узла могут сильно отличаться. В этом случае применяемые методы распределенного обучения должны быть устойчивы к неоднородности сети.
В данной работе проводится краткий обзор основных методов распределенного обучения нейронных сетей и исследование возможности применения алгоритма на базе консенсуса и алгоритма сплетен для распределенного обучения с изоляцией данных. Также рассматривается способность алгоритма на базе консенсуса корректно решать задачу в сети с неоднородной вычислительной мощностью узлов.


Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В ходе данной работы исследована возможность применения алгоритма на базе консенсуса и алгоритма сплетен для распределенного обучения нейронных сетей, в частности:
• изучена предметная область и существующие методы
• изучена математическая теория, описывающая исследуемый подход
• реализован алгоритм и прототип распределенной сети для проведения экспериментов
• проведены эксперименты и выполнен анализ результатов



[1] S. Ghadimi, G. Lan, and H. Zhang. «Mini-batch stochastic approximation methods for nonconvex stochastic composite optimization». Mathematical Programming, 2016.
[2] R Olfati-Saber, JA Fax, RM Murray. «Consensus and cooperation in networked multi-agent systems». IEEE, 2007.
[3] R. Olfati-Saber and R. M. Murray, «Consensus problems in networks of agents with switching topology and time-delays». IEEE Transactions on Automatic Control, vol. 49, no. 9, pp. 1520-1533, Sept. 2004, doi: 10.1109/TAC.2004.834113.
[4] Boyd S, «Convex optimization of graph Laplacian eigenvalues ». Proceedings of the International Congress of Mathematicians. - 2006. - Т. 3. - №. 1-3. - С. 1311-1319.
[5] Koloskova A. et al. «A unified theory of decentralized SGD with changing topology and local updates». International Conference on Machine Learning. - PMLR, 2020. - С. 5381-5393.
[6] Boyd S. et al. «Randomized gossip algorithms //IEEE transactions on information theory». - 2006. - Т. 52. - №. 6. - С. 2508-2530.
[7] O. Dekel, R. Gilad-Bachrach, O. Shamir, and L. Xiao. «Optimal distributed online prediction using mini-batches». Journal of Machine Learning Research, 2012.
[8] A. Agarwal and J. C. Duchi. «Distributed delayed stochastic optimization ». In NIPS, 2011.
[9] H. R. Feyzmahdavian, A. Aytekin, and M. Johansson. «An asynchronous mini¬batch algorithm for regularized stochastic optimization». IEEE Transactions on Automatic Control, 2016.
[10] T. Paine, H. Jin, J. Yang, Z. Lin, and T. Huang. < [11] B. Recht, C. Re, S. Wright, and F. Niu. Hogwild: «A lock-free approach to parallelizing stochastic gradient descent». In Advances in neural information processing systems, 2011.
[12] N. Luehr. «Fast multi-gpu collectives with nccl». Nvidia blog, 2016.
[13] P. Patarasuk and X. Yuan. «Bandwidth optimal all-reduce algorithms for clusters of workstations». Journal of Parallel and Distributed Computing, 2009.
[14] Lian X. et al. «Can decentralized algorithms outperform centralized algorithms? a case study for decentralized parallel stochastic gradient descent». arXiv preprint arXiv:1705.09056. - 2017.
[15] B. Sirb and X. Ye. «Consensus optimization with delayed and stochastic gradients on decentralized networks». In Big Data, 2016.
[16] P. Bianchi, G. Fort, and W. Hachem. «Performance of a distributed stochastic approximation algorithm». IEEE Transactions on Information Theory, 2013.
[17] Xiangru Lian, Wei Zhang, Ce Zhang, Ji Li. «Asynchronous Decentralized Parallel Stochastic Gradient Descent». Proceedings of the 35th International Conference on Machine Learning, PMLR 80:3043-3052, 2018.
[18] GitHub repository with code used for all experiments. // URL: https://github.com/T ihonkovSergey/pytorch_resnet_cifar10
[19] GitHub repository with implementing ResNet-20. // URL: https://github.com/akamaster/pytorch_resnet_cifar10
[20] Goyal P. et al. «Accurate, large minibatch sgd: Training imagenet in 1 hour». arXiv preprint arXiv:1706.02677. - 2017.
[21] Smith L. N. «Л disciplined approach to neural network hyper-parameters: Part 1-learning rate, batch size, momentum, and weight decay». //arXiv preprint arXiv:1803.09820. - 2018.


Работу высылаем на протяжении 30 минут после оплаты.




©2025 Cервис помощи студентам в выполнении работ