Тип работы:
Предмет:
Язык работы:


Исследование нейроподобных сетей, работающих со средним значением стохастического потока

Работа №28736

Тип работы

Диссертация

Предмет

информатика

Объем работы75
Год сдачи2000
Стоимость500 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
452
Не подходит работа?

Узнай цену на написание


Введение 3
1.1. Формальная модель нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Некоторые подходы к аппаратной реализации искусственных нейронных сетей . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Импульсное кодирование информации в биологических нейронных сетях 7
1.4. Клеточные нейронные сети . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5. Нейроны с альтернативными синапсами . . . . . . . . . . . . . . . . . . 8
1.6. Дискретное преобразование Фурье . . . . . . . . . . . . . . . . . . . . . 9
1.7. Обзор диссертации . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2. Потоковое представление информации 21
2.1. Общие определения . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Представление значений из [0; 1] . . . . . . . . . . . . . . . . . . . . . . . 22
2.3. Представление значений из [−1; 1] . . . . . . . . . . . . . . . . . . . . . . 25
2.4. Представление комплексных значений . . . . . . . . . . . . . . . . . . . 27
3. Потоковый нейрон 30
3.1. Основные элементы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2. Описание работы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3. Вычисление средних значений . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4. Обоснование перехода к линейной модели . . . . . . . . . . . . . . . . . 35
3.5. Полносвязная сеть и ее обучение . . . . . . . . . . . . . . . . . . . . . . 37
3.6. Результаты эксперимента . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4. Потоковый нейрон с альтернативными синапсами 44
4.1. Основные элементы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2. Описание работы нейрона . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3. Значения на выходе нейрона . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4. Ассоциативная память на сети Хопфилда . . . . . . . . . . . . . . . . . 49
4.5. Обучение по методу Хебба . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.6. Оптимизационное обучение . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.7. Результаты эксперимента . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
15. Потоковое устройство, выполняющее дискретное преобразование
Фурье 57
5.1. Значения и их представление . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2. Описание схемы ДПФ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.3. Обоснование . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.4. Сходимость к среднему значению . . . . . . . . . . . . . . . . . . . . . . 61
5.5. Результаты моделирования . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.6. Сравнение с обычной реализацией . . . . . . . . . . . . . . . . . . . . . . 63
5.7. Выводы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6. Заключение 66
Список рисунков 67
Список таблиц 68
Литература 69

Искусственные нейронные сети в последние десятилетия применяются для решения
большого класса задач, для которых неизвестны эффективные алгоритмы, или требуется быстрая параллельная обработка данных. В этот класс входят задачи обработки изображений [4, 30], задачи распознавания оптических образов [44, 63], звуковых
сигналов [57], организации ассоциативной памяти [9, 10, 48], предсказания показателей биржевых рынков [5], синтеза речи [60] и многие другие.
В основу искусственных нейронных сетей (ИНС) положены следующие черты
биологических нейронных сетей, позволяющие им хорошо справляться со сложными
задачами с неизвестными принципами решения: имеется простой обрабатывающий
элемент — нейрон; очень большое число нейронов участвует в обработке информации; один нейрон связан с большим числом других нейронов (глобальные связи);
веса связей между нейронами могут изменяться; информация обрабатывается параллельно.
Сложность нейронной сети определяется количеством нейронов, количеством связей между ними и сложностью отдельного нейрона. В диссертации разработаны новые модели нейронов, которые являются более простыми для аппаратной реализации
по сравнению с другими моделями. Связи между разработанными нейронами состоят всего из двух физических линий, по которым передается два бита за единицу
времени. Это достигается за счет использования кодирования информации в виде
среднего значения стохастической последовательности.
При разработке искусственной нейронной сети, как правило, строится формальная модель нейрона, которая изучается математическими методами, и для которой
разрабатывается алгоритм обучения. На основе формальной модели может быть создана аппаратная реализация ИНС, которая обладает свойствами изученной формальной модели и обучается теми же методами, что и формальная модель. Первая
формальная модель нейрона была предложена У. Мак-Каллоком и В. Питтсом [52].
Другие формальные модели нейронов и нейронных сетей предлагались Ф. Розенблаттом [59] (перцептрон), Дж. Хопфилдом [48] и другими.
Поскольку искусственные нейросети разрабатывались на основе принципов работы биологических нейронных сетей, они унаследовали их некоторые свойства: нечеткую логику, выраженную в виде алгебраических уравнений, возможность обучения,
параллельность выполнения операций. При обучении сеть адаптируется для решения
3конкретной задачи, при этом выделяются неявно выраженные закономерности [3,39].
Обучение является существенным элементом в разработке нейронной сети. Выбор метода обучения может сильно влиять на эффективность работы нейросети. В
диссертации предложены два метода обучения разработанных нейронов: модифицированный метод Хебба и метод оптимизации приближенной функции ошибки. Проведенные эксперименты на имитационной модели позволили сравнить эффективность
этих методов обучения.
Аппаратная реализация ИНС обладает свойством массового параллелизма, что
позволяет ей обрабатывать данные существенно быстрее обычного компьютера [40,
49]. Кроме того, в некоторых специализированных управляющих устройствах может быть выгодно использовать простую аппаратную нейросеть вместо достаточно
сложного универсального компьютера. Это делает актуальной разработку аппаратных нейросетей с небольшими аппаратными затратами.
Одним из методов, позволяющих уменьшить аппаратные затраты на реализацию
нейронных сетей, является импульсное кодирование информации, которое обсуждается в разделе 1.2. Импульсное кодирование присутствует также и в биологических
нейронных сетях, этот вопрос рассматривается в разделе 1.3. Исследование искусственных нейронных сетей, основанных на импульсном кодировании, представлено
работами А. Ф. Мюррея, М. Томлинсона, Дж. Томберга, Ю. А. Маматова, Г. П. Штерна, А. К. Карлина, А. Н. Малкова и Е. А. Тимофеева. В диссертации предложена
модель усовершенствованного и упрощенного нейрона, работающего с потоками импульсов, количество генераторов случайных чисел в котором не зависит от количества синапсов.
Опишем более подробно некоторые аспекты нейронных сетей, необходимые в
дальнейшем: формальную модель нейрона, подходы к аппаратной реализации ИНС,
импульсное кодирование информации в биологических нейросетях, клеточные нейронные сети, формальную модель нейрона с альтернативными синапсами, а также
дискретное преобразование Фурье.

Возникли сложности?

Нужна помощь преподавателя?

Помощь студентам в написании работ!


В настоящей работе предложены новые модели устройств, работающих со средним
значением стохастического потока: нейрона; нейрона с альтернативными синапсами;
устройства, выполняющего дискретное преобразование Фурье. Данные устройства
состоят из небольшого количества простых логических элементов, ячеек памяти и
содержат небольшое количество генераторов случайных чисел. Это делает их привлекательными для аппаратной реализации.
Построены математические модели данных устройств и получены основные характеристики распределения состояния нейрона и выходов устройства, выполняющего ДПФ. Доказана работоспособность разработанных устройств.
Для потоковых нейронов предложены два метода обучения: модифицированный
метод Хебба и метод оптимизации приближенной функции ошибки.
Для исследования данных устройств и методов обучения была создана программная имитационная модель, позволяющая проводить эксперименты с потоковыми схемами. На основе этой имитационной модели было проведено сравнение методов обучения нейронов, результаты экспериментов подтвердили работоспособность всех трех
устройств.


Бернс Б. Неопределенность в нервной системе. // М.: Мир, 1969. 252 с.
[2] Бехтерева Н.П. Здоровый и больной мозг человека // М.:Наука, 1980, 208 с.
[3] Горбань А. Н. Обучение нейронных сетей // М.: СП “ParaGraph”. 1990. 160 с.
[4] Горбань А. Н. Проекционные сетчатки для обработки бинарных изображений
// Математическое обеспечение и архитектура ЭВМ: Материалы науч.-техн.
конф. «Проблемы техники и технологий XXI века», 22–25 марта 1994 г. — Красноярск: изд. КГТУ, 1995. С. 6–9.
[5] Горбань А. Н., Россиев Д. А. Нейронные сети на персональном компьютере
// Новосибирск: Наука. Сибирская издательская фирма РАН. 1996. 276 с.
[6] Залманзон Л. А. Преобразование Фурье, Уолша, Хаара и их применение в управлении, связи и других областях // М.: Наука. 1989. 493 с.
[7] Карлин А. К., Малков А. Н., Маматов Ю. А., Тимофеев Е. А., Штерн Г. П. Вероятностный нейрон, работающий с плотностью потока бинарных импульсов
// Микроэлектроника, т. 27, № 3, 1998, с. 170-175.
[8] Короткин А. А., Панкратов А. В. Классифицирующие свойства нейронов с альтернативными синапсами // Моделирование и анализ информационных систем. Ярославль. 1997. Вып. 4. С. 118–123.
[9] Кохонен Т. Ассоциативная память // М.:Мир, 1980.
[10] Кохонен Т. Ассоциативные запоминающие устройства // М.:Мир, 1982.
[11] Красненко Н. П., Федоров В. А. Применение временных и корреляционных (спектральных) окон для оценивания параметров спектральной плотности стационарного случайного процесса // Изв. вузов. Радиоэлектроника. 1985. № 7. С. 79-
82.
[12] Кропотов Ю. Д. Мозговая организация восприятия и памяти: гипотеза о программировании действий // Физиология человека. 1989. Т. 15. № 3. С. 19–27.
[13] Кропотов Ю. Д. Нейроинформатика: Основы, современное состояние и перспективы // Физиология человека, 1989. Т. 15. С. 130–149.
69[14] Кропотов Ю. Д., Пономарев В. А. Нейрофизиология целенаправленной деятельности // СПб.: Наука. Санкт-Петербург изд. фирма, 1993. 171 с.
[15] Кропотов Ю. Д., Пахомов С. В. Математическое моделирование механизмов обработки сигналов нейронными популяциями в головном мозге: Сообщ. II. Влияние синаптической пластичности на свойства нейронной сети с локальными
связями в стационарном режиме // Физиология человека, 1994. Т. 10. С. 405–
410.
[16] Кузьмин С. А. Методы определения ориентации объектов в системах технического зрения // Измерения, контроль, автоматизация. 1986. Вып. 2. С. 36-45.
[17] Лебедев А. Н. Память человека, ее механизмы и границы // Исследование памяти. М.:Наука, 1990. С. 104–118.
[18] Лебедев А. Н. О физиологических основах восприятия и памяти // Психол.
журн. 1992. № 2. С. 30–41.
[19] Лукьянов А. В. Представление комплексных чисел в потоковой форме // Сборник «Моделирование и анализ информационных систем». Ярославль, 1996. № 3.
С. 57-61.
[20] Лукьянов А. В. Схемотехническая модель преобразования Фурье, работающая
со средним значением стохастического потока // Сборник «Моделирование и
анализ информационных систем». Ярославль, 1998. № 4. С. 123-133.
[21] Лукьянов А. В. Схемотехническая модель цифрового нейрона, работающая со
средним значением стохастического потока // Моделирование и анализ информационных систем. 1999. Т. 6, № 1. С. 29-35.
[22] Лукьянов А. В. Оптимизационное обучение цифрового нейрона, работающего
со средним значением стохастического потока // Моделирование и анализ информационных систем. 1999. Т. 6, № 2. С. 39-42.
[23] Лукьянов А. В. Потоковый нейрон с альтернативными синапсами // Моделирование и анализ информационных систем. 2000. Т. 7, № 1. С. 6-15.
[24] Лукьянов А. В. Потоковый нейрон с альтернативными синапсами. // VIII Всероссийский семинар «Нейроинформатика и ее приложения», материалы семинара. Красноярск. 2000.
70[25] Лукьянов А. В. Схемотехническая модель цифрового нейрона, работающая со
средним значением стохастического потока // Микроэлектроника. 2001. № 1.
(в печати)
[26] МакКаллок У. С., Питтс В. Логическое исчисление идей, относящихся к нервной
активности // Нейрокомпьютер. 1992. № 3, 4. С. 40–53.
[27] Маматов Ю. А., Булычев С. Ф., Карлин А. К., Малков А. Н. Потоковый нейрон
на цифровых элементах // Нейрокомпьютер. 1993. № 3,4. С. 23-31.
[28] Маматов Ю. А., Булычев С. Ф., Карлин А. К. и др. Цифровая реализация потокового нейрона // Радиотехника и электроника. 1995. № 11. С. 1652-1660.
[29] Маматов Ю. А., Булычев С. Ф., Карлин А. К. и др. Схемотехнические модели
построения вероятностных нейронов на базе цифровой техники // Микроэлектроника. 1996. Т. 25, № 1. С. 3-8.
[30] Престон К., Дафф Дж. Б., Левьяльди С. и др. Основы клеточной логики с приложениями к обработке изображений в медицине // Тр. Ин-та инж. по электротехн. и электронике. М., 1979. Т. 67. № 5. С. 149–185.
[31] Рабинер Л., Гоулд Б. Теория и применение цифровой обработки сигналов
// М.: Мир. 1978. 848 с.
[32] Рабинер Л. Р., Шафер Р. В. Цифровая обработка речевых сигналов // М.: Радио
и связь. 1981. 496 с.
[33] Соколов Е. Н., Вайткявичус Г. Г. Нейроинтеллект. От нейрона к нейрокомпьютеру. // М.: Наука. 1989. 240 с.
[34] Тимофеев Е. А. Моделирование нейрона, передающего информацию плотностью
потока импульсов // Автоматика и телемеханика. № 3. 1997. С. 190-199.
[35] Экклс Дж. Физиология синапсов. // М.: Мир. 1966. 396 с.
[36] Amit D.J. Modelling Brain Functions. The World of Attractor Neural Networks
// Cambridge University Press. 1989. PP. 504.
[37] Bandman O.L. Cellular-neural computations: formal model // Bulletin of the Novosibirsk Computing Center, Computer Science, issue 3, 1995, p. 1-17.
71[38] Bandman O.L. Stability of stored patterns in cellular-neural associative memory
// Bulletin of the Novosibirsk Computing Center, Computer Science, issue 4, 1996,
p. 1-16.
[39] Barlow H.B. Unsupervised learning // Neural Computation, 1989, No. 1, pp. 295-311.
[40] Carpenter G.A., Grossberg S. A massively parallel architecture for a self-organizing
neural pattern recognition machine // Computer Vision, Graphics, and Image Processing, 1987. Vol. 37, pp. 54-115.
[41] Chua L.O., Yang L. Cellular Neural Networks: Theory and Applications // IEEE
Transactions on Circuits and Systems. 1988. V. 35. No 10. P. 1257–1290.
[42] Chua L.O., Roska T., Venetianer P.L. The CNN is universal as the Turing machine
// IEEE Transactions on Circuits and Systems. 1993. V. 40. No 4. P. 289–291.
[43] Friesen W.O. Antifacilitation and facilitation in the cardiac ganglion of the spiry
lobster Punulirus interuptus // J. Comp. Physiol. 1975. Vol. 101. P. 207-224.
[44] Fukushima K. A Neural Network for Visual Pattern Recognition // Computer,
Vol. 21, No. 3, March 1988, pp. 65-75.
[45] Hamilton A., Murray A.F., Baxter D.J., Churcher S., Reekie H.M., Tarassenko L.
Integrated Pulse Stream Neural Networks: Results, Issues, and Pointers // IEEE
Transactions on Neural Networks. 1992. Vol. 3, No. 3. P. 385.
[46] Hands M.A., Pfeiffer W., Thienpont H., Kirk A., Hall T.J., Pignon D., and Parmiter P. Proposal for stochastic bit stream processing using optoelectronic smart pixels: A neural network architectural case study // Journal of Parallel and Distributed
Computing, 1997, Vol. 41, No. 1, pp. 92-108.
[47] Hebb D.O. The organization of Behavior // New York: Wiley, 1949.
[48] Hopfield J.J., Tank D.W. Computing with Neural Circuits: a Model // Science,
Vol. 233, 1986, p. 625.
[49] Jordan M.I. Attractor dynamics and parallelism in a connectionist sequential machine
// In Proceedings of the Eighth Annual conference of the Cognitive Science Society,
1986, pp. 531-546.
72[50] Kidd M. Electron microscopy of the inner plexiform layer of the retina in the cat and
pigeon // J. Anat. (London). 96. P. 179–187 (1962).
[51] Liu D., Michel A. Sparsely interconnected artificial neuron networks for associative
memories // Lecture notes in Comp. Sci., Vol. 606, p. 155.
[52] McCulloch W.S., Pitts W. A logical calculus of ideas immanent in nervous activity
// Bull. Math. Biophys., 1943. No. 5. PP. 115–133.
[53] Michel A.M., Farell J.A., Sun H. Analysis and synthesis techniques for Hopfield type
synchronous discrete time neural networks with application to associative memory
// IEEE Transactions, 1990, Vol. 37, No. 11, p. 1356.
[54] Murray A.F., Corso D.D., Tarassenko L. Pulse-Stream VLSI Neural Networks Mixing
Analog and Digital Techniques // IEEE Transactions on Neural Networks. 1991.
Vol. 2. No. 2. P. 193.
[55] Murray A.F., Smith A.V.W. Asynchronous arithmetic for VLSI neural system
// Electron. Lett. Vol. 23. No. 12. PP. 642-643. June 1987.
[56] Murray A.F., Smith A.V.W. A novel computational and signaling method for VLSI
neural networks // Proc. European Solid State Circuits Conf. 1987. PP. 19-22.
[57] Pratt L.Y., Mostow J., Kamm C.A. Direct transfer of learned information among
neural networks. // Proceedings of the 9th National Conference on Artificial Intelligence (AAAI-91), 1991, pp. 584-580, Anaheim, California.
[58] Riedmiller M., Braun H. A direct adaptive method for faster backpropagation learning:
The RPROP algorithm // Proceedings of the IEEE International Conference on
Neural Networks (ICNN). P. 586-591. San Francisco, 1993.
[59] Rosenblatt F. The Perceptron: A probabilistic model for information storage and
organization in the brain // Psychological review. 1958. No. 65. PP. 386–408.
[60] Sejnowski T.J., Rosenberg C.R. Parallel networks that learn to pronounce English
text // Complex Systems, 1987. No. 1, pp. 145-68.
[61] Tomberg J.E., Kaski K.K.K. Pulse-Density Modulation Technique in VLSI Implementations of Neural Network Algorithms // IEEE Journal of solid-state circuits.
Vol. 25, No. 5, October 1990.
73[62] Tomlinson M.S., Walker D.J. DNNA: A digital neural networks architecture // Proc.
Int. Neural Networks Conf. (INNC-90). Vol. 2. 1990. P. 589-592.
[63] Wang S.S., Lin W.G. A New Self-Organizing Neural Model for Invariant PatternRecognition // Pattern Recognition, Vol. 29, No. 4, April 1996, pp. 677-687.
[64] W¨assle H., Boycott B.B., Illing R.B. Morphology and mosaic of on- and off-beta cells
in the cat retina and some functional considerations // Proc. Roy. Soc. London. B.
1981. Vol. 212. PP. 177–195.

Работу высылаем на протяжении 30 минут после оплаты.



Подобные работы


©2024 Cервис помощи студентам в выполнении работ