Введение 5
Постановка задачи 8
Обзор литературы 9
1. Многослойный персептрон 10
1.1. Искусственный нейрон 10
1.2. Архитектура многослойного персептрона 12
1.3. Геометрическая интерпретация 14
1.4. Задача обучения многослойного персептрона 16
1.5. Алгоритм обучения многослойного персептрона 18
1.6. Проблемы обучения сети 28
1.7. Проблемы выбора количества скрытых слоев и количества нейронов в
скрытом слое 33
2. Нейронная сеть линейной аппроксимации 37
2.1. Архитектура сети линейной аппроксимации 37
2.2. Обучение сети линейной аппроксимации 40
3. Вычислительный эксперимент 44
3.1. Задача аппроксимации функции двух переменных 44
3.2. Задача определения сортов вин 47
Заключение 51
Список литературы
С момента создания первых искусственных нейронных сетей они используются как для решения различных прикладных задач, так и для изучения возможных правил функционирования мозга. Нейронные сети успешно применяются в широком спектре приложений, таких как распознавание образов, прогнозирование, сжатие данных, задачи управления и другие. Одним из важных направлений практического использования искусственных нейронных сетей являются задачи прогнозирования. к задачам прогнозирования относятся задачи прогнозирования курса валют, прогнозирование курса ценных бумаг на фондовом рынке, прогнозирование цен на сырье и другие товары, задачи выявления страхового мошенничества и мошенничества при банкротствах, задачи определения свойств новых материалов по их структуре, прогнозирование нагрузок энергетических систем, предсказание платежеспособности кредиторов и состоятельности "start-up" проектов. Обобщая области применения искусственных нейронных сетей, можно утверждать, что искусственные нейронные сети могут применяться при решении любых задач для решения которых отсутствует адекватная математическая модель, в том числе недостаточно данных для эффективного применения статистических методов их анализа. Таким образом, применение искусственных нейронных сетей в задачах прогнозирования является актуальным.
Формально, задача обучения нейронной сети в задачах прогнозирования, формулируется как задача аппроксимации. Необходимо построить нейронную сеть (аппроксимирующую функцию), которая будет принимать совпадающие значения (с заданной точностью) не только на данных участвовавших в обучении (задача приближенной интерполяции), но и на данных контрольного множества не участвовавших в обучении. Задача распознавания образов также может быть формально поставлена как задача аппроксимации. В задачах аппроксимации используется обучение с учителем, то есть для каждого обучающего входного вектора имеется обучающий выходной вектор.
Для решения задач прогнозирования (аппроксимации) используются нейронные сети прямого распространения сигнала такие как многослойный персептрон, сети радиальных базисных функций, машины опорных векторов. Наиболее часто в задачах аппроксимации используется многослойный персептрон. При обучении многослойного персептрона, как правило, используется хорошо зарекомендовавший себя на практике метод обратного распространения ошибки. Этот метод используется для численного определения градиента целевой функции (суммы квадратов ошибок), что позволяет использовать для обучения сети направленные методы спуска, в том числе метод наискорейшего спуска. Использование такого подхода к обучению многослойного персептрона на практике показало высокую эффективность, однако имеются и существенные недостатки. Прежде всего, это возможность паралича обучения при попадании в локальный минимум целевой функции. Выход из локального минимума без существенного ухудшения значений целевой функции, что фактически означает обучение заново, в некоторых случаях затруднителен. Второй проблемой обучения многослойного персептрона с использованием любых направленных методов минимизации суммы квадратов ошибок является зависимость архитектуры сети от начальных данных. При малом количестве нейронов скрытого слоя персептрон невозможно обучить на данных обучающего множества, причем причина неудачи обучения не всегда ясна. В ряде случаев такой причиной может быть малое время обучения. При избыточном числе нейронов скрытого слоя возможно избыточное обучение, при котором сеть успешно обучается на данных обучающего множества, но показывает плохие результаты на данных контрольного множества. В этих случаях необходимо увеличение или уменьшение числа нейронов скрытого слоя, а затем обучение сети заново, что приводит к дополнительным временным затратам на обучение сети. Эти проблемы обучения многослойного персептрона делают актуальным разработку новых нейронных сетей прямого распространения обучающихся с учителем.
Наряду с многослойным персептроном в магистерской диссертации рассматривается двухслойная сеть линейной аппроксимации, которая обеспечивает разбиение входных обучающих данных n-мерными симплексами и их аппроксимацию гиперплоскостями на каждом симплексе. Обучение сети линейной аппроксимации происходит одновременно с формированием её структуры, когда в процессе обучения в сеть добавляются новые нейроны и изменяются веса связей остальных нейронов. Такой подход позволяет полностью решить проблему зависимости архитектуры сети от обучающих данных. Предложенный ранее последовательный метод обучения сети линейной аппроксимации показал хорошие результаты в сравнении с многослойным персептроном. Значительным недостатком сети линейной аппроксимации является существенно большее количество нейронов по сравнению с многослойным персептроном. Для сети линейной аппроксимации актуальна разработка более эффективных методов обучения, обеспечивающих функционирование сети с меньшим количеством нейронов. В настоящей работе предлагается пакетный метод обучения сети линейной аппроксимации, который показал лучшие результаты по сравнению с последовательным методом обучения.
На защиту выносятся следующие результаты магистерской диссертации:
1) реализован метод обучения многослойного персептрона, основанный на обратном распространении ошибки, обеспечивающий возможности борьбы с параличом обучения и избыточным обучением сети;
2) предложен пакетный метод обучения сети линейной аппроксимации и разработан алгоритм обучения;
3) реализована модификация сети линейной аппроксимации;
4) проведен вычислительный эксперимент по решению задачи аппроксимации функции двух переменных и задачи распознавания сортов вин.
1. Хайкин С. Нейронные сети. Полный курс. М.: Издательский дом Вильямс, 2006. 1104 с.
2. Осовский С. Нейронные сети для обработки информации. М.: Финансы и статистика, 2002. 344 с.
3. R. Rojas. Neural Networks. Springer-Verlag, 1996.
4. Bernard Widrow and Michael A. Lehr. Artificial neural networks of the perceptron and backpropagation family. Stanford University, CA 94305-4055.
5. G. Cybenko. Approximation by superpositions of sigmoidal functions. Mathematics of Control, Signals and Systems, 1989.
6. Уоссермен Ф. Нейрокомпьютерная техника. М.: Мир, 1992. 240 с.
7. Каллан Р. Основные концепции нейронных сетей. М.: Издательский дом Вильямс, 2003.- 288 с.
8. S. Gallant. Perceptron based learning algorithms. IEEE Transactions on Neural Networks, 1990.
9. Kur Horvik. Multilayer feedforward networks are universal approximators. University of California, 1989.
10. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. М.: Горячая линия - Телеком, 2002. 382 с.
11. Прасолов В.В., Тихомиров В.М. Геометрия. - М.: МЦНМО, 2007. - 328 с.
12. Minsky M., Papert S. Perseptrons. Cambridge, VA: MIT Press, 1969.
13. Нейронные сети. Statistica Neural Networks: Пер. с англ.. М..- Горячая линия - Телеком, 2000. - 182 с.
14. Kevin Gurney, An introduction to neural networks, University of Sheffield, UCL Press, 1997.
15. Оболенский А.Ю., Оболенский И.А. Лекции по аналитической геометрии: учебно-методическое пособие. Москва-Ижевск: Институт компьютерных исследований, 2004. - 216 с.
16. Головко В.А. Нейроинтеллект: теория и применения. Книга 1. Организация и обучение нейронных сетей с прямыми и обратными связями.1999.
17. J. Minsky, S. Papert. Perceptions: An Introduction to Computational Geometry. MA. MIT Press, Cambridge, 1969.
18. В.А. Козынченко, А.И. Прус, Нейронная сеть в задачах аппроксимации, IEEE Publications , - Санкт-Петербург, 2014.