Тип работы:
Предмет:
Язык работы:


Распознавание английского текста сверточной нейронной сетью

Работа №125343

Тип работы

Бакалаврская работа

Предмет

нейронные сети

Объем работы31
Год сдачи2016
Стоимость4600 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
96
Не подходит работа?

Узнай цену на написание


Введение 3
Постановка задачи 6
Обзор литературы 7
Глава 1. Нейронные сети: основные понятия и применение 9
1.1. Отличие человеческого мозга от компьютера 9
1.2. Архитектура искусственной нейронной сети 10
1.3. Математическая модель искусственной нейронной сети 11
Глава 2. Модель сверточной нейронной сети 13
2.1. Архитектура сверточной нейронной сети 13
2.2. Математическая модель сверточной нейронной сети 15
2.2.1. Математическая модель сверточного слоя 15
2.2.2. Математическая модель субдискретизирующего слоя 17
2.2.3. Математическая модель выходного слоя 18
Глава 3. Обучение сверточной нейронной сети 19
3.1. Вычисление градиента функции ошибки сети 19
3.2. Метод обратного распространения ошибки 20
3.3. Математическая постановка задачи 21
Глава 4. Проведение эксперимента 22
4.1. Оборудование и программное обеспечение 22
4.2. Описание базы данных 22
4.3. Предварительная обработка изображений 22
4.4. Описание архитектуры реализованной нейронной сети 23
4.5. Сегментация текста на изображении 26
4.6. Результаты эксперимента 27
Выводы 28
Заключение 29
Список литературы 30

В последнее десятилетие машинное обучение стало набирать все большую и большую популярность и сегодня занимает одну из лидирующих позиций в сфере информационных технологий. Объем цифровых данных, используемый нами в повседневной жизни, увеличивается с каждым днем, в связи с этим, возникла необходимость в автоматическом анализе смарт-данных для дальнейшего развития технологического прогресса.
Сегодня машинное обучение активно используется для распознавания речи и образов, а также на его основе построены многие поисковые системы. Машинное обучение настолько прочно вошло в нашу повседневную жизнь, что ежедневное использование его методов остается для нас, как правило, незамеченным.
Основной целью машинного обучения является обучение компьютера таким образом, чтобы он самостоятельно, без помощи человека, мог принимать решения, основанные на предыдущем опыте, для решения поставленной перед ним задачи. Существующие алгоритмы глубокого обучения помогают анализировать данные продаж в прошлом для предсказания поведения клиентов в будущем, оптимизировать поведение робота для минимизации используемых ресурсов и извлекать данные из биологических источников информации.
Активное развитие машинного обучения привело к распространению искусственных нейронных сетей [20]. Нейронные сети, основанные на биологической структуре человеческого мозга, превышают по своей вычислительной возможности прочие алгоритмы машинного обучения.
Искусственная нейронная сеть состоит из большого числа тесно связанных между собой элементов обработки информации, так называемых нейронов, работающих одновременно. Обучение нейронной сети схоже с обучением человека: основной идеей является запоминание образцов и примеров чего-либо. Нейронная сеть строится для решения конкретной задачи: распознавания образов или классификации данных.
Основным преимуществом использования нейронных сетей является возможность их применения для извлечения информации из больших или неточных данных, выявления основных признаков и тенденций, которые не могут быть распознаны человеком и прочими методами глубокого обучения. Обученная нейронная сеть может выступать в качестве «эксперта» для той категории данных, для которой она была подготовлена. Более того, подобного рода структура в дальнейшем может помочь прогнозировать новые результаты.
Одной из самых ярких и значительных форм искусственных нейронных сетей является сверточная нейронная сеть.
Сверточная нейронная сеть была впервые предложена Я.Лекуном и Й.Бенгуа [3]. Ученые исследовали зрительную кору головного мозга кошки, содержащую карты местных рецептивных полей, уменьшающиеся по мере детализации объекта, на который смотрит животное. Я.Лекун и Й.Бенгуа пришли к выводу, что математическую модель поведения зрительных рецепторов кошки можно построить, опираясь на следующие этапы обработки изображений:
• свертка исходного изображения объекта при помощи нескольких небольших фильтров;
• субдискретизация (объединение) полученных на предыдущем шаге ключевых признаков;
• повтор предыдущих шагов (свертки, а затем субдискретизации) до тех пор, пока на выходе не получится достаточное количество признаков исходного изображения;
• использование модели полносвязного слоя для получения решения конкретной задачи.
Таким образом, сверточная нейронная сеть благодаря своей архитектуре в основном используется для решения сложных графических задач распознавания и классификации изображений.
Сверточная нейронная сеть имеет ряд значительных преимуществ, благодаря которым она обходит по вычислительной мощности алгоритмы распознавания прошлых десятилетий [15].
В первую очередь, алгоритмы, использующие сверточные нейронные сети, инвариантны к различным искажениям, таким как поворот камеры или неравномерное распределение света на изображении, горизонтальным или вертикальным сдвигам и прочим. Также, сверточная нейронная сеть не требует выделения большого количества памяти для хранения извлеченных в процессе работы признаков. Еще одним преимуществом использования сверточной нейронной сети является достаточно быстрая скорость обучения, которая достигается благодаря уменьшению количества используемых параметров. Таким образом, производительность сверточной нейронной сети превышает в несколько раз производительность прочих нейронных сетей, используемых в задачах распознавания.

Возникли сложности?

Нужна помощь преподавателя?

Помощь студентам в написании работ!


Точность решения поставленной задачи с использованием модели сверточной нейронной может быть улучшена практически до 100%. Об этом подробнее написано в публикации [22].
В последние годы модели искусственных нейронных сетей, используемые для решения задач оффлайн-распознавания текста, приобрели огромную популярность. Наряду со сверточными нейронными сетями активно применяются и внедряются многомерные рекуррентные и, так называемые, deconvolutional нейронные сети.
Основным отличием deconvolutional сети от сверточной является суммирование по картам признаков, учитывая фильтры. Использование такого подхода позволяет получить свертку, применимую ко всему изображению целиком, а не к отдельной его части [13].
Многомерная рекуррентная нейронная сеть построена по принципу циклического графа: сигнал передается как от входного слоя к выходному, так и в обратном направлении. Поведение нейронов данной сети задается с помощью дифференциальных или разностных уравнений. Подобная архитектура делает сеть инвариантной к различного рода искажениям входных данных. Преимущества использования моделей многомерных рекуррентных сетей для решения задач оффлайн-распознавания текста более подробно описаны в [1].


1. Alex Graves, Jurgen Schmidhuber. Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks // NIPS 2008, Vancouver, Canada. P.545-552.
2. Alex Smola, S.V.N.Vishwanatham. Introduction to Machine Learning // Cambridge University Press, 2008. P.20-32.
3. An introduction to Convolutional Neural Networks. http://white.stanford.edu/teach/index.php/An_Introduction_to_Convolutional_ Neural_Networks
4. An introduction to Neural Networks. http://www.explainthatstuff.com/introduction-to-neural-networks.html
5. Ben Krose, Patrick van der Smagt. An Introduction to Neural Networks. Amsterdam, November, 1996. 135 P.
6. David Kriesel. A Brief Introduction to Neural Networks. http://www.dkriesel.com/en/science/neural_networks
7. David Stutz. Understanding Convolutional Neural Networks // Seminar Report, Fakultat far Mathematik, Informatik und Naturwissenschaften. August, 2014.
8. Ganesh K. Venayagamoorthy, Teaching Neural Networks Concepts and Thir Learning Techniques // Proceedings of the 2004 American Society for Engineering Education Midwest Section Conference.
9. Ing.H.Ney, B.Leibe. Matching Algorithms for Image Recognition // RWTH Aachen University, Januar, 2010.
10. Keiron O'Shea, Ryan Nash. An Introduction to Convolutionan Neural Networks // arXiv:1511.08458v2
11. Leon Bottou. Stochastic Gradient Descent Tricks // Neural Networks: Tricks of the Trade. Volume 7700 2012 of the series Lecture Notes in Computer Science. P. 421-436.
12. Line Eikvil. Optical Character Recognition. December, 1993.
13. Matthew D.Zeiler, Dilip Krishnan, Graham W. Taylor, Rob Fergus. Deconvolutional Networks // Computer Vision and Pattern Recognition, June 13-18, 2010.
14. Neural Networks. https://www.doc.ic.ac.uk/~nd/surprise_96/journal/vol4/cs11/report.html#Intro duction to neural networks
15. Samer Hijazi, Rishi Kumar, Chris Rowen. Using Convolutional Neural Networks for Image Recognition. http://www.cadence.com/en/default.aspx
...


Работу высылаем на протяжении 30 минут после оплаты.



Подобные работы


©2024 Cервис помощи студентам в выполнении работ