Исследование нейроподобных сетей, работающих со средним значением стохастического потока
|
Введение 3
1.1. Формальная модель нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Некоторые подходы к аппаратной реализации искусственных нейронных сетей . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Импульсное кодирование информации в биологических нейронных сетях 7
1.4. Клеточные нейронные сети . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5. Нейроны с альтернативными синапсами . . . . . . . . . . . . . . . . . . 8
1.6. Дискретное преобразование Фурье . . . . . . . . . . . . . . . . . . . . . 9
1.7. Обзор диссертации . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2. Потоковое представление информации 21
2.1. Общие определения . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Представление значений из [0; 1] . . . . . . . . . . . . . . . . . . . . . . . 22
2.3. Представление значений из [−1; 1] . . . . . . . . . . . . . . . . . . . . . . 25
2.4. Представление комплексных значений . . . . . . . . . . . . . . . . . . . 27
3. Потоковый нейрон 30
3.1. Основные элементы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2. Описание работы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3. Вычисление средних значений . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4. Обоснование перехода к линейной модели . . . . . . . . . . . . . . . . . 35
3.5. Полносвязная сеть и ее обучение . . . . . . . . . . . . . . . . . . . . . . 37
3.6. Результаты эксперимента . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4. Потоковый нейрон с альтернативными синапсами 44
4.1. Основные элементы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2. Описание работы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3. Значения на выходе нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4. Ассоциативная память на сети Хопфилда . . . . . . . . . . . . . . . . . 49
4.5. Обучение по методу Хебба . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.6. Оптимизационное обучение . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.7. Результаты эксперимента . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
15. Потоковое устройство, выполняющее дискретное преобразование
Фурье 57
5.1. Значения и их представление . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2. Описание схемы ДПФ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.3. Обоснование . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.4. Сходимость к среднему значению . . . . . . . . . . . . . . . . . . . . . . 61
5.5. Результаты моделирования . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.6. Сравнение с обычной реализацией . . . . . . . . . . . . . . . . . . . . . . 63
5.7. Выводы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6. Заключение 66
Список рисунков 67
Список таблиц 68
Литература 69
1.1. Формальная модель нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Некоторые подходы к аппаратной реализации искусственных нейронных сетей . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Импульсное кодирование информации в биологических нейронных сетях 7
1.4. Клеточные нейронные сети . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5. Нейроны с альтернативными синапсами . . . . . . . . . . . . . . . . . . 8
1.6. Дискретное преобразование Фурье . . . . . . . . . . . . . . . . . . . . . 9
1.7. Обзор диссертации . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2. Потоковое представление информации 21
2.1. Общие определения . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Представление значений из [0; 1] . . . . . . . . . . . . . . . . . . . . . . . 22
2.3. Представление значений из [−1; 1] . . . . . . . . . . . . . . . . . . . . . . 25
2.4. Представление комплексных значений . . . . . . . . . . . . . . . . . . . 27
3. Потоковый нейрон 30
3.1. Основные элементы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2. Описание работы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3. Вычисление средних значений . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4. Обоснование перехода к линейной модели . . . . . . . . . . . . . . . . . 35
3.5. Полносвязная сеть и ее обучение . . . . . . . . . . . . . . . . . . . . . . 37
3.6. Результаты эксперимента . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4. Потоковый нейрон с альтернативными синапсами 44
4.1. Основные элементы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2. Описание работы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3. Значения на выходе нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4. Ассоциативная память на сети Хопфилда . . . . . . . . . . . . . . . . . 49
4.5. Обучение по методу Хебба . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.6. Оптимизационное обучение . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.7. Результаты эксперимента . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
15. Потоковое устройство, выполняющее дискретное преобразование
Фурье 57
5.1. Значения и их представление . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2. Описание схемы ДПФ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.3. Обоснование . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.4. Сходимость к среднему значению . . . . . . . . . . . . . . . . . . . . . . 61
5.5. Результаты моделирования . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.6. Сравнение с обычной реализацией . . . . . . . . . . . . . . . . . . . . . . 63
5.7. Выводы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6. Заключение 66
Список рисунков 67
Список таблиц 68
Литература 69
Искусственные нейронные сети в последние десятилетия применяются для решения
большого класса задач, для которых неизвестны эффективные алгоритмы, или требуется быстрая параллельная обработка данных. В этот класс входят задачи обработки изображений [4, 30], задачи распознавания оптических образов [44, 63], звуковых
сигналов [57], организации ассоциативной памяти [9, 10, 48], предсказания показателей биржевых рынков [5], синтеза речи [60] и многие другие.
В основу искусственных нейронных сетей (ИНС) положены следующие черты
биологических нейронных сетей, позволяющие им хорошо справляться со сложными
задачами с неизвестными принципами решения: имеется простой обрабатывающий
элемент — нейрон; очень большое число нейронов участвует в обработке информации; один нейрон связан с большим числом других нейронов (глобальные связи);
веса связей между нейронами могут изменяться; информация обрабатывается параллельно.
Сложность нейронной сети определяется количеством нейронов, количеством связей между ними и сложностью отдельного нейрона. В диссертации разработаны новые модели нейронов, которые являются более простыми для аппаратной реализации
по сравнению с другими моделями. Связи между разработанными нейронами состоят всего из двух физических линий, по которым передается два бита за единицу
времени. Это достигается за счет использования кодирования информации в виде
среднего значения стохастической последовательности.
При разработке искусственной нейронной сети, как правило, строится формальная модель нейрона, которая изучается математическими методами, и для которой
разрабатывается алгоритм обучения. На основе формальной модели может быть создана аппаратная реализация ИНС, которая обладает свойствами изученной формальной модели и обучается теми же методами, что и формальная модель. Первая
формальная модель нейрона была предложена У. Мак-Каллоком и В. Питтсом [52].
Другие формальные модели нейронов и нейронных сетей предлагались Ф. Розенблаттом [59] (перцептрон), Дж. Хопфилдом [48] и другими.
Поскольку искусственные нейросети разрабатывались на основе принципов работы биологических нейронных сетей, они унаследовали их некоторые свойства: нечеткую логику, выраженную в виде алгебраических уравнений, возможность обучения,
параллельность выполнения операций. При обучении сеть адаптируется для решения
3конкретной задачи, при этом выделяются неявно выраженные закономерности [3,39].
Обучение является существенным элементом в разработке нейронной сети. Выбор метода обучения может сильно влиять на эффективность работы нейросети. В
диссертации предложены два метода обучения разработанных нейронов: модифицированный метод Хебба и метод оптимизации приближенной функции ошибки. Проведенные эксперименты на имитационной модели позволили сравнить эффективность
этих методов обучения.
Аппаратная реализация ИНС обладает свойством массового параллелизма, что
позволяет ей обрабатывать данные существенно быстрее обычного компьютера [40,
49]. Кроме того, в некоторых специализированных управляющих устройствах может быть выгодно использовать простую аппаратную нейросеть вместо достаточно
сложного универсального компьютера. Это делает актуальной разработку аппаратных нейросетей с небольшими аппаратными затратами.
Одним из методов, позволяющих уменьшить аппаратные затраты на реализацию
нейронных сетей, является импульсное кодирование информации, которое обсуждается в разделе 1.2. Импульсное кодирование присутствует также и в биологических
нейронных сетях, этот вопрос рассматривается в разделе 1.3. Исследование искусственных нейронных сетей, основанных на импульсном кодировании, представлено
работами А. Ф. Мюррея, М. Томлинсона, Дж. Томберга, Ю. А. Маматова, Г. П. Штерна, А. К. Карлина, А. Н. Малкова и Е. А. Тимофеева. В диссертации предложена
модель усовершенствованного и упрощенного нейрона, работающего с потоками импульсов, количество генераторов случайных чисел в котором не зависит от количества синапсов.
Опишем более подробно некоторые аспекты нейронных сетей, необходимые в
дальнейшем: формальную модель нейрона, подходы к аппаратной реализации ИНС,
импульсное кодирование информации в биологических нейросетях, клеточные нейронные сети, формальную модель нейрона с альтернативными синапсами, а также
дискретное преобразование Фурье.
большого класса задач, для которых неизвестны эффективные алгоритмы, или требуется быстрая параллельная обработка данных. В этот класс входят задачи обработки изображений [4, 30], задачи распознавания оптических образов [44, 63], звуковых
сигналов [57], организации ассоциативной памяти [9, 10, 48], предсказания показателей биржевых рынков [5], синтеза речи [60] и многие другие.
В основу искусственных нейронных сетей (ИНС) положены следующие черты
биологических нейронных сетей, позволяющие им хорошо справляться со сложными
задачами с неизвестными принципами решения: имеется простой обрабатывающий
элемент — нейрон; очень большое число нейронов участвует в обработке информации; один нейрон связан с большим числом других нейронов (глобальные связи);
веса связей между нейронами могут изменяться; информация обрабатывается параллельно.
Сложность нейронной сети определяется количеством нейронов, количеством связей между ними и сложностью отдельного нейрона. В диссертации разработаны новые модели нейронов, которые являются более простыми для аппаратной реализации
по сравнению с другими моделями. Связи между разработанными нейронами состоят всего из двух физических линий, по которым передается два бита за единицу
времени. Это достигается за счет использования кодирования информации в виде
среднего значения стохастической последовательности.
При разработке искусственной нейронной сети, как правило, строится формальная модель нейрона, которая изучается математическими методами, и для которой
разрабатывается алгоритм обучения. На основе формальной модели может быть создана аппаратная реализация ИНС, которая обладает свойствами изученной формальной модели и обучается теми же методами, что и формальная модель. Первая
формальная модель нейрона была предложена У. Мак-Каллоком и В. Питтсом [52].
Другие формальные модели нейронов и нейронных сетей предлагались Ф. Розенблаттом [59] (перцептрон), Дж. Хопфилдом [48] и другими.
Поскольку искусственные нейросети разрабатывались на основе принципов работы биологических нейронных сетей, они унаследовали их некоторые свойства: нечеткую логику, выраженную в виде алгебраических уравнений, возможность обучения,
параллельность выполнения операций. При обучении сеть адаптируется для решения
3конкретной задачи, при этом выделяются неявно выраженные закономерности [3,39].
Обучение является существенным элементом в разработке нейронной сети. Выбор метода обучения может сильно влиять на эффективность работы нейросети. В
диссертации предложены два метода обучения разработанных нейронов: модифицированный метод Хебба и метод оптимизации приближенной функции ошибки. Проведенные эксперименты на имитационной модели позволили сравнить эффективность
этих методов обучения.
Аппаратная реализация ИНС обладает свойством массового параллелизма, что
позволяет ей обрабатывать данные существенно быстрее обычного компьютера [40,
49]. Кроме того, в некоторых специализированных управляющих устройствах может быть выгодно использовать простую аппаратную нейросеть вместо достаточно
сложного универсального компьютера. Это делает актуальной разработку аппаратных нейросетей с небольшими аппаратными затратами.
Одним из методов, позволяющих уменьшить аппаратные затраты на реализацию
нейронных сетей, является импульсное кодирование информации, которое обсуждается в разделе 1.2. Импульсное кодирование присутствует также и в биологических
нейронных сетях, этот вопрос рассматривается в разделе 1.3. Исследование искусственных нейронных сетей, основанных на импульсном кодировании, представлено
работами А. Ф. Мюррея, М. Томлинсона, Дж. Томберга, Ю. А. Маматова, Г. П. Штерна, А. К. Карлина, А. Н. Малкова и Е. А. Тимофеева. В диссертации предложена
модель усовершенствованного и упрощенного нейрона, работающего с потоками импульсов, количество генераторов случайных чисел в котором не зависит от количества синапсов.
Опишем более подробно некоторые аспекты нейронных сетей, необходимые в
дальнейшем: формальную модель нейрона, подходы к аппаратной реализации ИНС,
импульсное кодирование информации в биологических нейросетях, клеточные нейронные сети, формальную модель нейрона с альтернативными синапсами, а также
дискретное преобразование Фурье.
В настоящей работе предложены новые модели устройств, работающих со средним
значением стохастического потока: нейрона; нейрона с альтернативными синапсами;
устройства, выполняющего дискретное преобразование Фурье. Данные устройства
состоят из небольшого количества простых логических элементов, ячеек памяти и
содержат небольшое количество генераторов случайных чисел. Это делает их привлекательными для аппаратной реализации.
Построены математические модели данных устройств и получены основные характеристики распределения состояния нейрона и выходов устройства, выполняющего ДПФ. Доказана работоспособность разработанных устройств.
Для потоковых нейронов предложены два метода обучения: модифицированный
метод Хебба и метод оптимизации приближенной функции ошибки.
Для исследования данных устройств и методов обучения была создана программная имитационная модель, позволяющая проводить эксперименты с потоковыми схемами. На основе этой имитационной модели было проведено сравнение методов обучения нейронов, результаты экспериментов подтвердили работоспособность всех трех
устройств.
значением стохастического потока: нейрона; нейрона с альтернативными синапсами;
устройства, выполняющего дискретное преобразование Фурье. Данные устройства
состоят из небольшого количества простых логических элементов, ячеек памяти и
содержат небольшое количество генераторов случайных чисел. Это делает их привлекательными для аппаратной реализации.
Построены математические модели данных устройств и получены основные характеристики распределения состояния нейрона и выходов устройства, выполняющего ДПФ. Доказана работоспособность разработанных устройств.
Для потоковых нейронов предложены два метода обучения: модифицированный
метод Хебба и метод оптимизации приближенной функции ошибки.
Для исследования данных устройств и методов обучения была создана программная имитационная модель, позволяющая проводить эксперименты с потоковыми схемами. На основе этой имитационной модели было проведено сравнение методов обучения нейронов, результаты экспериментов подтвердили работоспособность всех трех
устройств.



