Тип работы:
Предмет:
Язык работы:


ПОСТРОЕНИЕ РАЗЛИЧНЫХ КОНФИГУРАЦИЙ СВЕРТОЧНЫХ НЕЙРОННЫХ СЕТЕЙ ДЛЯ КЛАССИФИКАЦИИ ИЗОБРАЖЕНИЙ ПТИЦ

Работа №184010

Тип работы

Дипломные работы, ВКР

Предмет

математика

Объем работы60
Год сдачи2025
Стоимость4550 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
1
Не подходит работа?

Узнай цену на написание


Аннотация
ВВЕДЕНИЕ 3
1. Математическая постановка задачи классификации изображений 4
2. Нейронные сети 4
2.1 Функции активации 5
2.2 Методы обратного распространения ошибки 7
3. Сверточные нейронные сети 12
3.1 Регуляризация 13
3.2 Аугментация данных 14
3.3 Функция потерь 15
3.4 Слои нормализации 16
4. Численные эксперименты 17
4.1 Используемые инструменты 17
4.2 Два разных класса 18
4.3 Два похожих класса 20
4.4 Десять разных классов 23
4.5 Тридцать разных классов 33
4.6 Пятьдесят разных классов 40
ЗАКЛЮЧЕНИЕ 44
СПИСОК ИСПОЛЬЗУЕМОЙ ЛИТЕРАТУРЫ 45
ПРИЛОЖЕНИЕ 47

Человек, для анализа окружающей среды, чаще всего использует органы зрения, которые успешно выполняют задачу определения объектов в поле видимости. Однако человек без специальных знаний не всегда способен точно определить, например, сорт кофейных зерен или вид растения лишь по внешнему виду. Даже профессионалы могут допустить ошибки в этом. Машины, осуществляющие анализ с помощью компьютерного зрения, более эффективно справляются с этой задачей.
Компьютерное зрение представляет собой раздел исследований в области искусственного интеллекта, направленный на разработку и применение алгоритмов и технологий для анализа, интерпретации и понимания визуальной информации, извлекаемой из изображений или видеозаписей. Эта дисциплина стремится эмулировать способности человеческого зрения, позволяя вычислительным системам воспринимать и анализировать окружающую визуальную среду.
В данной работе мы рассмотрим задачу классификации изображений используя сверточные нейронные сети. Сверточные нейронные сети (в сокращении CNN с английского convolutional neural network) являются типом глубоких нейронных сетей, специально разработанных для анализа данных с пространственной структурой, таких как изображения. Они состоят из нескольких слоев, включая сверточные слои, слои подвыборки и полносвязные слои. В сверточных слоях происходит извлечение признаков из входных данных путем применения операции свертки. Слои подвыборки уменьшают пространственные размеры признаков, сокращая количество параметров и увеличивая устойчивость к переобучению. Полносвязные слои выполняют классификацию или регрессию на основе извлеченных признаков. CNN эффективно применяются в задачах компьютерного зрения, включая классификацию изображений, речь о которой пойдет в данной работе.
Данная тема может использоваться для решения многих задач в разных областях. К примеру, распознавание рукописных цифр , установление наличия опухолей головного мозга, анализа наночастиц , определения наличия болезней у растений по их листьям

Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В данной работе была рассмотрена и проанализирована архитектура сверточных нейронных сетей для задачи классификации изображений. Были изучены основные компоненты сверточных нейронных сетей, такие как сверточные слои, слои подвыборки, полносвязные слои и слои прореживания. Также был рассмотрен применяемый метод обратного распространения ошибки adam, а также метод регуляризации исключение, методы аугментации данных и слои нормализации.
На практике были построенные различные конфигурации сверточных нейронных сетей для достижения наилучшего результата. В рамках исследования были выполнены эксперименты на различных наборах данных, включающих:
1. Два разных класса птиц: модель показала высокую точность и правильно классифицировала все проверочные изображения.
2. Два похожих класса: изначальная модель переобучилась на наших данных, поэтому пришлось ее модифицировать, в результате чего она опять показала высокую точность.
3. Десять различных классов: были построены различные конфигурации сверточных нейронных сетей, которые были обучены в течении 10 и 20 эпох, а также с применением и без применения аугментации. В результате, лучшая модель показала высокую точность равную 96%.
4. Тридцать различных классов: в результате построения различных конфигураций сверточных нейронных сетей была достигнута точность равная 76%.
5. Пятьдесят различных классов: была достигнута точность равная 75%.
Несмотря на кажущуюся эффективность методов аугментации данных, на практике их использование приводит к значительному увеличению времени обучения модели (приблизительно в 10 раз), при этом повышение точности классификации оказывается незначительным или даже отрицательным. Вероятно, данное явление обусловлено несовместимостью аугментации с использованием слоев исключения. Слои нормализации, наоборот, показали свою эффективность при использовании, при этом незначительно повышая время обучения модели.


1. Biswas A. An Efficient CNN Model for Automated Digital Handwritten Digit Classification / A. Biswas, Md. S. Islam // Journal of Information Systems Engineering and Business Intelligence 7(1). P. 42-55. 2021.
2. Ayadi W. Deep CNN for Brain Tumor Classification / W. Ayadi, W. Elhamzi, I. Charfi, M. Atri // Neural Processing Letters Volume 53, P. 671-700, 2021.
3. Шелковников Е. Ю. ПРИМЕНЕНИЕ НЕЙРОННОЙ СЕТИ АРХИТЕКТУРЫ U-Net ДЛЯ СЕГМЕНТАЦИИ СТМ-ИЗОБРАЖЕНИЙ / Е. Ю. Шелковников, К. А. Шляхтин, Т. Е. Шелковникова, С. Ф. Егоров // Химическая физика и мезоскопия, 330-336, 2019, Том 21, №2.
4. Jinzhu L. Review on Convolutional Neural Network (CNN) Applied to Plant Leaf Disease Classification / L. Jinzhu, T. Lijuan, J. Huanyu // Agriculture 2021, 11(8), 707.
5. Николенко С. Глубокое обучение: учебник / С. Николенко, А. Кадурин, Е. Архангельская - СПб.: Питер, 2018. - 480 с.
6. Kaggle / BIRDS 525 SPECIES- IMAGE CLASSIFICATION - 2023-2024 - URL: https://www.kaggle.com/datasets/gpiosenka/100-bird-species/data (дата обращения: 10.05.2024).
7. Koul A. Practical Deep Learning for Cloud, Mobile, and Edge: Real-World AI & Computer-Vision Projects Using Python, Keras & TensorFlow / A. Koul, S. Ganju, M. Kasam - O'Reilly Media, 2019 - 583 p.
8. Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., & Salakhutdinov, R. (2014). Dropout: a simple way to prevent neural networks from overfitting. Journal of Machine Learning Research, 15(1), 1929-1958.
9. Kingma, D. P. (2014). Adam: A method for stochastic optimization. arXivpreprint arXiv:1412.6980.
10. Ioffe, S., & Szegedy, C. (2015, June). Batch normalization: Accelerating deep network training by reducing internal covariate shift. In International conference on machine learning (pp. 448-456).
11. Yang, S., Xiao, W., Zhang, M., Guo, S., Zhao, J., & Shen, F. (2022). Image data augmentation for deep learning: A survey. arXiv preprint arXiv:2204.08610.
12. Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., & Salakhutdinov, R. (2014). Dropout: a simple way to prevent neural networks from overfitting. The journal of machine learning research, 15(1), 1929-1958.
13. Agarap, A. F. (2018). Deep learning using rectified linear units (relu). arXiv preprint arXiv:1803.08375.
14. Dunne, R. A., & Campbell, N. A. (1997, June). On the pairing of the softmax activation and cross-entropy penalty functions and the derivation of the softmax activation function. In Proc. 8th Aust. Conf. on the Neural Networks, Melbourne (Vol. 181, p. 185). Citeseer.
15. Ruder, S. (2016). An overview of gradient descent optimization algorithms. arXiv preprint arXiv:1609.04747.
16. O'shea, K., & Nash, R. (2015). An introduction to convolutional neural networks. arXiv preprint arXiv:1511.08458.
17. Hernandez-Garcia, A., & Konig, P. (2018). Further advantages of data augmentation on convolutional neural networks. In Artificial Neural Networks and Machine Learning- ICANN 2018: 27th International Conference on Artificial Neural Networks, Rhodes, Greece, October 4-7, 2018, Proceedings, Part 127 (pp. 95-103). Springer International Publishing.


Работу высылаем на протяжении 30 минут после оплаты.




©2025 Cервис помощи студентам в выполнении работ