Тип работы:
Предмет:
Язык работы:


Модели машинного обучения, устойчивые к состязательным атакам

Работа №127290

Тип работы

Дипломные работы, ВКР

Предмет

информатика

Объем работы22
Год сдачи2020
Стоимость4700 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
12
Не подходит работа?

Узнай цену на написание


Введение 3
1. Постановка задачи 4
2. Существующие типы и методы атак 5
2.1. Атаки по типу цели 5
2.1.1. Атаки на изображения 5
2.1.2. Атаки на временные ряды 5
2.1.3. Атаки на агента в задачах обучения подкреплением 6
2.1.4. Атаки на аудио 6
2.1.5. Атаки на обработку естественного языка 6
2.2. Атаки по типу применения 6
2.2.1. Атаки на “белый ящик” 6
2.2.2. Атаки на “черный ящик” 8
2.2.3. Data poisoning 9
3. Существующие методы защиты от атак 10
3.1. Маскировка градиента 10
3.2. Повторное обучение модели 11
3.3. Добавление механизма детекции атакованных примеров 12
4. Разработка собственного метода защиты от атак 13
5. Эксперименты 18
6. Результаты 20
Список литературы 21


В современном мире модели машинного обучения используются повсеместно: при распознавании речи, жестов, поиске объектов на изображении, прогнозировании временных рядов, медицинской и технической диагностике, в биоинформатике, для высокочастотной торговли, обнаружения фрода, кредитного скоринга и во многих других сферах.
К сожалению, многие модели машинного обучения чувствительны к некорректным входным данным. К примеру, оригинальный метод опорных векторов очень чувствителен к шуму, а глубокая сверточная нейронная сеть может быть обманута специальными изображениями. Такие изображения создаются атакующими сетями. При недостаточно большом размере набора данных для обучения деревья решений часто имеют области признакового пространства, в котором объекты могут неправильно классифицироваться (рис. 1).
На некоторые модели машинного обучения намеренно производятся атаки. Они могут быть использованы для защиты от автоматического ввода капчи, сокрытия от распознавания лиц, обхода антиспам-систем или для некорректного распознавания дорожных знаков беспилотными автомобилями. Именно такие методы, направленные на введение в заблуждение моделей машинного обучения, и называются состязательными атаками. Для защиты от подобных атак необходимо использовать специальные модификации моделей машинного обучения.



Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В ходе выполнения работы были достигнуты следующие результаты:
• Изучены существующие методы состязательных атак.
• Проанализированы существующие методы защиты от атак.
• Разработаны собственные методы защиты от атак.
• Проведено тестирование собственного метода.


[1] Athalye Anish, Carlini Nicholas, Wagner David. Obfuscated gradients give a false sense of security: Circumventing defenses to adversarial examples // arXiv preprint arXiv:1802.00420. — 2018.
[2] Carlini Nicholas, Wagner David. Towards evaluating the robustness of neural networks // 2017 ieee symposium on security and privacy (sp) / IEEE. —2017. —P. 39-57.
[3] Evasion attacks against machine learning at test time / Battista Biggio, Igino Corona, Davide Maiorca et al. // Joint European conference on machine learning and knowledge discovery in databases / Springer. —
2013. —P. 387-402.
[4] Goodfellow Ian J, Shlens Jonathon, Szegedy Christian. Explaining and harnessing adversarial examples // arXiv preprint arXiv:1412.6572.—
2014.
[5] Hinton Geoffrey, Vinyals Oriol, Dean Jeff. Distilling the knowledge in a neural network // arXiv preprint arXiv:1503.02531. — 2015.
[6] Kurakin Alexey, Goodfellow Ian, Bengio Samy. Adversarial machine learning at scale // arXiv preprint arXiv:1611.01236. — 2016.
[7] ML-LOO: Detecting Adversarial Examples with Feature Attribution / Puyudi Yang, Jianbo Chen, Cho-Jui Hsieh et al. // arXiv preprint arXiv:1906.03499. — 2019.
[8] MaxUp: A Simple Way to Improve Generalization of Neural Network Training / Chengyue Gong, Tongzheng Ren, Mao Ye, Qiang Liu // arXiv preprint arXiv:2002.09024. — 2020.
[9] Moosavi-Dezfooli Seyed-Mohsen, Fawzi Alhussein, Frossard Pascal. Deepfool: a simple and accurate method to fool deep neural networks // Proceedings of the IEEE conference on computer vision and pattern recognition. — 2016. — P. 2574-2582.
[10] Pang Tianyu, Xu Kun, Zhu Jun. Mixup Inference: Better Exploiting Mixup to Defend Adversarial Attacks // arXiv preprint arXiv:1909.11515. — 2019.
[11] Provably minimally-distorted adversarial examples / Nicholas Carlini, Guy Katz, Clark Barrett, David L Dill // arXiv preprint arXiv:1709.10207. — 2017.
[12] Sharma Yash, Chen Pin-Yu. Attacking the Madry Defense
Model with L_ 1-based Adversarial Examples // arXiv preprint arXiv:1710.10733. — 2017.



Работу высылаем на протяжении 30 минут после оплаты.



Подобные работы


©2025 Cервис помощи студентам в выполнении работ