📄Работа №181825

Тема: РЕАЛИЗАЦИЯ ГИБРИДНОГО ПОДХОДА ПРИ КОНФИДЕНЦИАЛЬНОМ ОБУЧЕНИИ РЕКУРРЕНТНЫХ НЕЙРОННЫХ СЕТЕЙ

📝
Тип работы Бакалаврская работа
📚
Предмет информатика
📄
Объем: 37 листов
📅
Год: 2020
👁️
Просмотров: 42
Не подходит эта работа?
Закажите новую по вашим требованиям
Узнать цену на написание
ℹ️ Настоящий учебно-методический информационный материал размещён в ознакомительных и исследовательских целях и представляет собой пример учебного исследования. Не является готовым научным трудом и требует самостоятельной переработки.

📋 Содержание

РЕФЕРАТ 2
ВВЕДЕНИЕ 5
1 Конфиденциальность в машинном обучении 7
1.1 Проблема конфиденциальности в машинном обучении 8
1.2 Риски использования конфиденциальных данных в машинном обучении8
2 Подходы конфиденциального машинного обучения 11
2.1 Федеративное обучение 11
2.2 Дифференциальная приватность 13
2.3 Гомоморфное шифрование 15
2.4 Протокол конфиденциального вычисления 18
3 Гибридный подход 22
3.1 Описание подхода 22
3.2 Сравнение с другими подходами 25
4 Реализация гибридного подхода для обучения рекуррентных нейронных
сетей 27
4.1 Рекуррентные нейронные сети 27
4.2 Описание реализации 28
4.3 Эксперименты 30
4.4 Выводы 31
ЗАКЛЮЧЕНИЕ 33
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ 34

📖 Введение

При обучении моделей машинного обучения для некоторых задач необходимо использовать конфиденциальные данные. Например, если мы выявляем случаи банковского мошенничества, то нам нужна информация о транзакциях клиентов банка. При этом владельцы данных хотят, чтобы как можно меньше людей получили доступ к их данным, а владельцы модели хотят, чтобы модель оставалась их собственностью. Если в процессе обучения модели машинного обучения участвует несколько сторон — владельцев данных, то конфиденциальность таких данных может быть нарушена. А некорректная организация процесса машинного обучения может привести к нарушению законов, регламентирующих использование конфиденциальных данных, и, соответственно, штрафам и репутационным издержкам для компаний.
Направление исследований, изучающее подходы машинного обучения, обеспечивающие конфиденциальность данных, называется конфиденциальными машинным обучением. Для решения этой задачи используется несколько классических подходов, описание которых приведено в следующей части. Каждый из подходов имеет свои недостатки и достоинства, поэтому важным направлением исследований становятся гибридные подходы, цель которых — взять все лучшее из базовых и уравновесить их недостатки. В работе [1] гибридный подход был реализован для деревьев решения, метода опорных векторов и сверточных нейронных сетей. Была формально обоснована безопасность этого подхода, и проведены эксперименты, показывающие, что качество модели, обученной с помощью гибридного подхода, не уступает качеству модели, обученной без всяких гарантий безопасности.
Важным алгоритмом машинного обучения являются рекуррентные нейронные сети, использующиеся, например, в машинном переводе, чат-ботах, распознании объектов в видеорядах.
Таким образом, цель выпускной квалификационной работы — реализовать гибридный подход при конфиденциальном обучении рекуррентных нейронных сетей.
Задачи:
1. Проанализировать существующие подходы конфиденциального машинного обучения.
2. Изучить гибридный подход конфиденциального машинного обучения.
3. Реализовать алгоритм для конфиденциального обучения рекуррентных нейронных сетей с помощью гибридного подхода.
4. Оценить и сравнить качество нового подхода с существующими.

Возникли сложности?

Нужна качественная помощь преподавателя?

👨‍🎓 Помощь в написании

✅ Заключение

В рамках работы была изучена проблема обучения моделей машинного обучения на конфиденциальных данных. Были исследованы существующие подходы: федеративное обучение, дифференциальная приватность,
гомоморфное шифрование, протокол конфиденциального вычисления. Проанализированы их преимущества и недостатки. На основе изученных подходов был выбран наиболее оптимальный — гибридный подход, показывающий самое высокое качество модели, и в то же время предоставляющий эквивалентные гарантии безопасности. В результате выполнения работы гибридный подход был реализован для обучения рекуррентных нейронных сетей, так как рекуррентные нейронные сети являются основой многих современных задач, а тем более чаще всего работают с теми самыми конфиденциальными данными. Описана реализация и произведены эксперименты, доказывающие состоятельность реализации.

Нужна своя уникальная работа?
Срочная разработка под ваши требования
Рассчитать стоимость
ИЛИ

📕 Список литературы

1. Truex S. et al. A Hybrid Approach to Privacy-Preserving Federated Learning // AISec'19: Proceedings of the 12th ACM Workshop on Artificial Intelligence and SecurityNovember / S. Truex, N. Baracaldo, A. Anwar, T. Steinke, H. Ludwig, R. Zhang, Y. Zhou. - 2019. - P. 1-11
2. Definition of Private Data [Электронный ресурс] // Law Insider. - 2013-2020. - URL: https://www.lawinsider.com/dictionary/private-data (дата доступа: 02.04.2020)
3. Скандал с Facebook и Cambridge Analytica. Что мы знаем
[Электронный ресурс] // BBC. - 2018. - URL:
https://www.bbc.com/russian/features-43475612 (дата доступа: 05.04.2020)
4. Narayanan A. et al. Robust De-anonymization of Large Datasets (How to Break Anonymity of the Netflix Prize Dataset) // IEEE Symposium on Security and Privacy (sp 2008), Oakland, CA / A. Narayanan, V. Shmatikov. - 2008. - P. 111-125
5. Zhao B.Z.H. et al. On Inferring Training Data Attributes in Machine Learning Models // PPML’19, November 2019, London, GB / B. Zi Hao Zhao, H.J. Asghar, R. Bhaskar, M.A. Kaafar. - 2019.
6. Canillas R. et al. Exploratory Study of Privacy Preserving Fraud Detection // In Proceedings of the 19th International Middleware Conference Industry (Middleware ’18). Association for Computing Machinery, New York, NY, USA / R. Canillas, R. Talbi, S. Bouchenak, O. Hasan, L. Brunie, L. Sarrat. - 2018. - P. 25-31
7. The 7 Foundational Principles [Электронный ресурс] // Privacy by
Design - 2011. - URL: https://www.ipc.on.ca/wp-content/uploads/resources/7foundationalprinciples.p df(gama доступа: 15.04.2020).
8. Bonawitz K. et al. Towards Federated Learning at Scale: System Design // Proceedings of the 2nd SysML Conference, Palo Alto, CA, USA / K. Bonawitz, H. Eichner, W. Grieskamp, D. Huba, A. Ingerman, V. Ivanov, C. Kiddon, J. Konecny, S. Mazzocchi, H. B. McMahan, T. Van Overveldt, D. Petrou, D. Ramage, J. Roselander. - 2019.
9. Bagdasaryan E. et al. How To Backdoor Federated Learning // Computer Science / E. Bagdasaryan, A. Veit, Y. Hua, D. Estrin, V. Shmatikov. - 2018.
10. Ma C. et al. On Safeguarding Privacy and Security in the Framework of Federated Learning // IEEE Network / C. Ma, J. Li, M. Ding, H.H. Yang, F. Shu, T.Q.S. Quek, H.V. Poor. - 2018. - P. 1-7
11. Bonawitz K. et al. Practical Secure Aggregation for Privacy-Preserving Machine Learning // In Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security (CCS ’17) / K. Bonawitz, V. Ivanov, B. Kreuter, A. Marcedone, H.B. McMahan, S. Patel, D. Ramage, A. Segal, K. Seth. - 2017. - P. 1175-1191
12. Jayaraman B. et al. Evaluating Differentially Private Machine Learning in Practice // In 28th USENIX Security Symposium, Santa Clara / B. Jayaraman, D. Evans. - 2019.
13. Apple Differential Privacy Technical Overview [Электронный ресурс]
// Apple - 2020. - URL:
https://www.apple.com/privacy/docs/Differential Privacy Overview.pdf (дата доступа: 21.04.2020)
14. Dowlin N. et al. CryptoNets: Applying Neural Networks to Encrypted Data with High Throughput and Accuracy // Proceedings of the 33 rd International Conference on Machine Learning, New York, NY, USA / N. Dowlin, R. Gilad-Bachrach, K. Laine, K. Lauter, M. Naehrig, J. Wernsing. - 2016.
15. Minelli M. Fully homomorphic encryption for machine learning // Cryptography and Security / M. Minelli.. - 2018.
...24

🖼 Скриншоты

🛒 Оформить заказ

Работу высылаем в течении 5 минут после оплаты.

©2026 Cервис помощи студентам в выполнении работ