Искусственные нейронные сети
Широкий спектр современных задач, от идентификации частиц, возникающих в результате ядерных столкновений [1], до помощи в постановке медицинских диагнозов [2], решается с использованием искусственных нейронных сетей. Также нейронные сети, из-за их биологического подобия, находят глубокий интерес среди исследователей из разных областей [3, 4].
Искусственная нейронная сеть — это множество взаимодействующих вычислительных элементов (нейронов). Каждый нейрон может выполнять лишь простейшие операции, однако, объединяя их в сети, можно проводить сложные распределенные вычисления. Наиболее интересной с точки зрения информатики является модель нейрона Маккалока-Питтса [5], согласно которой, результатом работы нейрона является вещественная функция от линейной комбинации сигналов других нейронов. Для решения конкретных задач коэффициенты линейной комбинации каждого нейрона подбираются в процессе специального алгоритма (обучения).
Распространен подход, в котором нейроны с одинаковой активационной функцией и набором связанных нейронов объединяются в группы — слои. Хотя такой подход не соответствует реальным схемам взаимодействия нейронов в биологических нейронных сетях, он значительно упрощает проектирование и обучение искусственных. Следует отметить, что линейную комбинацию, вычисляемую в нейроне, легко представить в виде векторного произведения. Тогда результатом работы нейронного слоя является вектор-функция от произведения матрицы коэффициентов (далее — матрица весов) на вектор сигналов от связанных нейронов (далее — входной вектор). Иллюстрация данного подхода приведена в формуле 1, здесь R — выход нейронного слоя, f (x) — активационная функция слоя, wi;j — коэффициент j-го нейрона для i-го входного сигнала, xi — i-й входной сигнал, M — количество нейронов в слое, N — количество входных сигналов.
f (!11x1 + • • • + !1N xN)
(1)
f (!M 1x1 + • • • + !MNxN) /
' Jvl X 1
К преимуществам нейронных сетей можно отнести единый подход к решению широкого спектра задач и возможность ускорения вычислений за счет массового параллелизма. Параллелизм обеспечивается независимостью работы каждого нейрона в слое.
Задача распознавания образов
Выбирая количество нейронных слоев, порядок их соединения и алгоритмы обучения, нейронные сети можно настроить на решение различных задач: сжатие и архивация данных, прогнозирование (экстраполяция), интерполяция, аппроксимация, классификация и кластеризация. Особый интерес представляет задача распознавания образов [6] и, в частности, изображений. Перспективность данной задачи объясняется быстрым ростом количества производимой информации, в том числе графической. Эта информация является отличным набором данных для обучения, тестирования и применения нейронных сетей. В данной работе будет рассматриваться задача распознавания бинарных (черно-белых) изображений.
Искусственная нейронная сеть Хэмминга
Наиболее простой нейронной сетью для решения задачи распознавания бинарных изображений является сеть Хэмминга [5], основанная на одноименной метрике. Расстоянием Хэмминга между двумя элементами из пространства бинарных векторов фиксированной размерности называется количество различающихся компонент этих векторов.
Нейронная сеть Хэмминга состоит из двух слоев (сравнения, конкуренции) и имеет следующий алгоритм функционирования:
1. Подготовка изображений. Входные изображения (матрица пикселей с высотой H и шириной W) раскладываются в вектор размерности N = HW. Один из цветов пикселей (например черный) представляется как 1, другой как —1.
2. Обучение. Множество из M эталонных изображений записывается в строки весовой матрицы слоя сравнения.
3. Сравнение. Описанная весовая матрица умножается на вектор, подлежащий распознаванию, и получается вектор C = (Ci, ...,CM)Т, где Ci пропорциональна количеству совпавших пикселей в распознаваемом и i-м эталонном изображениях. Следует отметить, что величина Ci обратно пропорциональна расстоянию Хэмминга, и эталонный образ с максимальным Ci является наиболее близким ко входному в смысле меры Хэмминга.
4. Конкуренция. В слое конкуренции происходит поиск максимальной компоненты вектора C. Эталон, соответствующий данной компоненте, является самым близким к входному образу в метрике Хэмминга. Это изображение и является результатом распознавания.
Преимущества
1. Использование простой метрики Хэмминга. Для сравнения, в нейронной сети АРТ-1 используется мера сходства изображений, которая не является метрикой в математическом смысле.
2. Быстродействие. Наличие всего двух нейронных слоев обеспечивает малую вычислительную сложность по сравнению с некоторыми другими нейронными сетями.
Возможные проблемы
Отсутствие пластичности. В традиционной нейронной сети Хэмминга не предусмотрена возможность обучения существующих эталонов и выделения новых категорий. В литературе такая проблема называется отсутствием пластичности. Причиной такого поведения является безусловность определения победителя: во многих задачах требуется выделять новый эталон, если расстояние между распознаваемым и эталонным образом выше некоторого порога.
Искусственная нейронная сеть адаптивной резонансной теории
Адаптивная резонансная теория была разработана в 1987 году Стивеном Гроссбергом и Гейл Карпентер. Существует несколько нейронных сетей, построенных в соответствии с этой теорией [7, 8] и одной из них является АРТ-1 [9], предназначенная для распознавания бинарных изображений и учитывающая недостатки сети Хэмминга. Архитектура и алгоритм АРТ-1 приведены в главе 1.
Преимущества
Существенным преимуществом данной сети является наличие пластичности. Также, в отличие от некоторых других нейронных сетей, например персептрон [5], в АРТ-1 при обучении изменяется только эталон- победитель, не искажая все остальные. Данное преимущество называют свойством стабильности.
Возможные проблемы
1. Производительность. В силу особенностей алгоритма распознавания, вычислительная сложность АРТ-1 высока, по сравнению со многими другими нейронными сетями. Это может негативно сказаться, например, в задачах real-time распознавания [10].
2. Асимметрия нулей и единиц. В АРТ-1 при вычислении меры сходства используются только единичные элементы образов, и игнорируются нулевые. Это снижает качество распознавания в некоторых задачах.
3. Деградация запомненных образов. В силу необратимости алгоритма обучения запомненная информация может теряться.
4. Мера сходства изображений не является метрикой в математическом смысле. Данный факт не является существенной проблемой, но использование простой меры Хэмминга облегчило бы тестирование и отладку нейронной сети.
Следует отметить, что приведены проблемы, выявленные при сравнении АРТ-1 с нейронной сетью Хэмминга. Также известны и другие проблемы, например отсутствие ассоциативной и распределенной памяти, но они не будут рассмотрены в рамках данной работы.
В данной работе проанализированы проблемы, которые могут возникать в нейронной сети АРТ-1, и предложены две модификации для решения проблемы низкой скорости работы. Первая из модификаций обеспечивает увеличение производительности без изменения структуры сети. Вторая значительно изменяет структуру сети, но обеспечивает существенный прирост скорости. Обе модификации и классическая АРТ-1 реализованы в виде пакета программ и проведено их сравнительное тестирование на 300 изображениях рукописных цифр. Тестирование подтвердило эффективность модификаций: увеличение производительности в 2.18 раза для первой модификации и в 125.75 раза для второй.
[1] Wilk A. Particle Identification Using Artificial Neural Networks with the ALICE Transition Radiation Detector: дис. Сигишоара, 2010. 266 p.
[2] Дмитриенко В. Д., Поворозню О. А Дискретная нейронная сеть aдаn- тивной резонансной теории для решения задач подбора лекарственных препаратов // Вестник Национального технического университета Харьковский политехнический институт. Серия: информатика и моделирование. 2009. № 13. С. 61-68.
[3] Deep Dream Generator URL: http://deepdreamgenerator.com/ (дата обращения: 01.05.2016).
[4] Доррер М. Г. Психологическая интуиция искусственных нейронных сетей: дис. ... канд. техн. наук: 05.13.16. Красноярск, 1998.
[5] Уоссермен Ф. Нейрокомпьютерная техника. М.: Мир, 1992. 184 с.
[6] Вапник В. Н., Червоненкис А. Я. Теория распознавания образов. М.: Наука, 1974. 416 с.
[7] Carpenter G. A., Grossberg S. ART 2: Self-organization of stable category recognition codes for analog input patterns // Applied Optics. 1987. №26(23). С. 4919-4930.
[8] Carpenter G. A., Grossberg S. ART 3: Hierarchical search using chemical transmitters in self-organizing pattern recognition architectures // Neural Networks (Publication). 1990. №3. С. 129-152.
[9] Grossberg S. Competitive learning: from interactive activation to adaptive resonance // Cognitive science. 1987. No 11. P. 23-63.
[10] Real-Time Human Pose Recognition in Parts from Single Depth Images // Microsoft Research URL: http://research.microsoft.com/pubs/145347/BodyPartRecognition.pdf (дата обращения: 02.05.2016).
[11] Осовский С. Нейронные сети для обработки информации. М.: Финансы и статистика, 2002. 344 с.
[12] Круглов В. В., Борисов В. В. Искусственные нейронные сети. М.: Горячая линия — Телеком, 2002. 382 с.
[13] Хайкин C. Нейронные сети: полный курс. 2-e изд. M.: Вильямс, 2008.
[14] Carpenter G., Grossberg S. Adaptive Resonance Theory // Encyclopedia of Machine Learning and Data Mining. Boston: Boston University, 2014.
[15] Выдрина Ю. В., Козынченко В. А. Модификация обучения искусственной нейронной сети АРТ-1 // Процессы управления и устойчивость. 2015. T. 2. № 1. С. 379-384.
...