Тип работы:
Предмет:
Язык работы:


РЕАЛИЗАЦИЯ ГИБРИДНОГО ПОДХОДА ПРИ КОНФИДЕНЦИАЛЬНОМ ОБУЧЕНИИ РЕКУРРЕНТНЫХ НЕЙРОННЫХ СЕТЕЙ

Работа №181825

Тип работы

Бакалаврская работа

Предмет

информатика

Объем работы37
Год сдачи2020
Стоимость4300 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
15
Не подходит работа?

Узнай цену на написание


РЕФЕРАТ 2
ВВЕДЕНИЕ 5
1 Конфиденциальность в машинном обучении 7
1.1 Проблема конфиденциальности в машинном обучении 8
1.2 Риски использования конфиденциальных данных в машинном обучении8
2 Подходы конфиденциального машинного обучения 11
2.1 Федеративное обучение 11
2.2 Дифференциальная приватность 13
2.3 Гомоморфное шифрование 15
2.4 Протокол конфиденциального вычисления 18
3 Гибридный подход 22
3.1 Описание подхода 22
3.2 Сравнение с другими подходами 25
4 Реализация гибридного подхода для обучения рекуррентных нейронных
сетей 27
4.1 Рекуррентные нейронные сети 27
4.2 Описание реализации 28
4.3 Эксперименты 30
4.4 Выводы 31
ЗАКЛЮЧЕНИЕ 33
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ 34


При обучении моделей машинного обучения для некоторых задач необходимо использовать конфиденциальные данные. Например, если мы выявляем случаи банковского мошенничества, то нам нужна информация о транзакциях клиентов банка. При этом владельцы данных хотят, чтобы как можно меньше людей получили доступ к их данным, а владельцы модели хотят, чтобы модель оставалась их собственностью. Если в процессе обучения модели машинного обучения участвует несколько сторон — владельцев данных, то конфиденциальность таких данных может быть нарушена. А некорректная организация процесса машинного обучения может привести к нарушению законов, регламентирующих использование конфиденциальных данных, и, соответственно, штрафам и репутационным издержкам для компаний.
Направление исследований, изучающее подходы машинного обучения, обеспечивающие конфиденциальность данных, называется конфиденциальными машинным обучением. Для решения этой задачи используется несколько классических подходов, описание которых приведено в следующей части. Каждый из подходов имеет свои недостатки и достоинства, поэтому важным направлением исследований становятся гибридные подходы, цель которых — взять все лучшее из базовых и уравновесить их недостатки. В работе [1] гибридный подход был реализован для деревьев решения, метода опорных векторов и сверточных нейронных сетей. Была формально обоснована безопасность этого подхода, и проведены эксперименты, показывающие, что качество модели, обученной с помощью гибридного подхода, не уступает качеству модели, обученной без всяких гарантий безопасности.
Важным алгоритмом машинного обучения являются рекуррентные нейронные сети, использующиеся, например, в машинном переводе, чат-ботах, распознании объектов в видеорядах.
Таким образом, цель выпускной квалификационной работы — реализовать гибридный подход при конфиденциальном обучении рекуррентных нейронных сетей.
Задачи:
1. Проанализировать существующие подходы конфиденциального машинного обучения.
2. Изучить гибридный подход конфиденциального машинного обучения.
3. Реализовать алгоритм для конфиденциального обучения рекуррентных нейронных сетей с помощью гибридного подхода.
4. Оценить и сравнить качество нового подхода с существующими.


Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В рамках работы была изучена проблема обучения моделей машинного обучения на конфиденциальных данных. Были исследованы существующие подходы: федеративное обучение, дифференциальная приватность,
гомоморфное шифрование, протокол конфиденциального вычисления. Проанализированы их преимущества и недостатки. На основе изученных подходов был выбран наиболее оптимальный — гибридный подход, показывающий самое высокое качество модели, и в то же время предоставляющий эквивалентные гарантии безопасности. В результате выполнения работы гибридный подход был реализован для обучения рекуррентных нейронных сетей, так как рекуррентные нейронные сети являются основой многих современных задач, а тем более чаще всего работают с теми самыми конфиденциальными данными. Описана реализация и произведены эксперименты, доказывающие состоятельность реализации.



1. Truex S. et al. A Hybrid Approach to Privacy-Preserving Federated Learning // AISec'19: Proceedings of the 12th ACM Workshop on Artificial Intelligence and SecurityNovember / S. Truex, N. Baracaldo, A. Anwar, T. Steinke, H. Ludwig, R. Zhang, Y. Zhou. - 2019. - P. 1-11
2. Definition of Private Data [Электронный ресурс] // Law Insider. - 2013-2020. - URL: https://www.lawinsider.com/dictionary/private-data (дата доступа: 02.04.2020)
3. Скандал с Facebook и Cambridge Analytica. Что мы знаем
[Электронный ресурс] // BBC. - 2018. - URL:
https://www.bbc.com/russian/features-43475612 (дата доступа: 05.04.2020)
4. Narayanan A. et al. Robust De-anonymization of Large Datasets (How to Break Anonymity of the Netflix Prize Dataset) // IEEE Symposium on Security and Privacy (sp 2008), Oakland, CA / A. Narayanan, V. Shmatikov. - 2008. - P. 111-125
5. Zhao B.Z.H. et al. On Inferring Training Data Attributes in Machine Learning Models // PPML’19, November 2019, London, GB / B. Zi Hao Zhao, H.J. Asghar, R. Bhaskar, M.A. Kaafar. - 2019.
6. Canillas R. et al. Exploratory Study of Privacy Preserving Fraud Detection // In Proceedings of the 19th International Middleware Conference Industry (Middleware ’18). Association for Computing Machinery, New York, NY, USA / R. Canillas, R. Talbi, S. Bouchenak, O. Hasan, L. Brunie, L. Sarrat. - 2018. - P. 25-31
7. The 7 Foundational Principles [Электронный ресурс] // Privacy by
Design - 2011. - URL: https://www.ipc.on.ca/wp-content/uploads/resources/7foundationalprinciples.p df(gama доступа: 15.04.2020).
8. Bonawitz K. et al. Towards Federated Learning at Scale: System Design // Proceedings of the 2nd SysML Conference, Palo Alto, CA, USA / K. Bonawitz, H. Eichner, W. Grieskamp, D. Huba, A. Ingerman, V. Ivanov, C. Kiddon, J. Konecny, S. Mazzocchi, H. B. McMahan, T. Van Overveldt, D. Petrou, D. Ramage, J. Roselander. - 2019.
9. Bagdasaryan E. et al. How To Backdoor Federated Learning // Computer Science / E. Bagdasaryan, A. Veit, Y. Hua, D. Estrin, V. Shmatikov. - 2018.
10. Ma C. et al. On Safeguarding Privacy and Security in the Framework of Federated Learning // IEEE Network / C. Ma, J. Li, M. Ding, H.H. Yang, F. Shu, T.Q.S. Quek, H.V. Poor. - 2018. - P. 1-7
11. Bonawitz K. et al. Practical Secure Aggregation for Privacy-Preserving Machine Learning // In Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security (CCS ’17) / K. Bonawitz, V. Ivanov, B. Kreuter, A. Marcedone, H.B. McMahan, S. Patel, D. Ramage, A. Segal, K. Seth. - 2017. - P. 1175-1191
12. Jayaraman B. et al. Evaluating Differentially Private Machine Learning in Practice // In 28th USENIX Security Symposium, Santa Clara / B. Jayaraman, D. Evans. - 2019.
13. Apple Differential Privacy Technical Overview [Электронный ресурс]
// Apple - 2020. - URL:
https://www.apple.com/privacy/docs/Differential Privacy Overview.pdf (дата доступа: 21.04.2020)
14. Dowlin N. et al. CryptoNets: Applying Neural Networks to Encrypted Data with High Throughput and Accuracy // Proceedings of the 33 rd International Conference on Machine Learning, New York, NY, USA / N. Dowlin, R. Gilad-Bachrach, K. Laine, K. Lauter, M. Naehrig, J. Wernsing. - 2016.
15. Minelli M. Fully homomorphic encryption for machine learning // Cryptography and Security / M. Minelli.. - 2018.
...24


Работу высылаем на протяжении 30 минут после оплаты.




©2025 Cервис помощи студентам в выполнении работ