Тип работы:
Предмет:
Язык работы:


КЛАССИФИКАТОР БАЙЕСА ДЛЯ НЕПАРАМЕТРИЧЕСКОГО РАСПРЕДЕЛЕНИЯ ПРИЗНАКОВ

Работа №189666

Тип работы

Дипломные работы, ВКР

Предмет

математика

Объем работы45
Год сдачи2019
Стоимость4750 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
15
Не подходит работа?

Узнай цену на написание


Перечень условных обозначений 3
Введение 4
1 Постановка задачи 6
1.1 Классификатор Байеса 7
1.1.1 Ошибка классификации 8
1.2 Классификатор Байеса для нормального распределения признаков 10
1.3 Результаты дополнительных исследований 15
2 Классификатор Байеса для неизвестного распределения признаков 21
2.1 Методы оценки плотности распределения: Парзеновские окна, kn ближайших
соседей 22
2.2 Метод оценки плотности при помощи сплайн-функции, сохраняющей интеграл
26
2.2.1 Понятие сплайн-функции одной переменной 26
2.2.2 Сплайн-функция одной переменной, сохраняющая интеграл 27
2.2.3 Примеры аппроксимации плотности распределения 33
2.3 Сплайн-функция двух переменных 34
2.3.1 Построение двумерного кубического сплайна 36
2.3.2 Пример аппроксимации двумерной плотности распределения 40
Заключение 43
Список используемой литературы 44


Задача распознавания долгое время рассматривалась с биологической точки зрения. Изучению у объекта подвергались только качественные характеристики, поскольку исследования, как правило, были связаны с органами слуха, зрения или же осязания.
В начале XX века Норбертом Винером была основана наука, называющаяся кибернетикой. Это наука об общих закономерностях процессов управления и передачи информации в машинах, живых организмах и обществе. Её появление позволило ввести в процесс исследования вопроса распознавания образов математические методы.
Создание специализированных автоматов, способных выполнять функции распознавания всевозможных объектов, значительно расширяет возможность работы сложных систем, выполняющих различные информационные, логические, аналитические задачи.
Подобные системы используются во многих предприятиях, учреждениях и других местах, где проводится разнообразная работа с базами объектов различных объёмов. Именно поэтому задача распознавания и классификации является актуальной и практически значимой и в настоящее время.
Основой для решения задач распознавания, или же классификации, объектов послужили результаты классической теории статистических решений. В её рамках строились алгоритмы, которые на основе экспериментальных измерений параметров (признаков), характеризующих объект, а также некоторых априорных данных, описывающих классы, позволяют определить конкретный класс, к которому может быть отнесён распознаваемый объект. Дальнейшему развитию теории распознавания послужило применение разделов прикладной математики, методов алгебры логики, а также математическое программирование. В итоге появилось самостоятельное научное направление, называемое математической теорией распознавания.
В данной работе рассмотрены методы решения задачи распознавания образов, основанные на Байесовской теории принятия решения [1]. Причём классификация проводится на основе образов, классовая принадлежность которых нам заранее уже известна (прецеденты). Такая задача распознавания называется классификацией с обучением. Для решения задачи строятся разделяющие функции для случая, когда распределение отдельных признаков и совместное распределение вектора признаков неизвестны, либо являются непараметрическими. Рассматриваются такие методы оценки плотности распределения признаков, как метод Парзеновских окон и метод кп ближайших соседей [1, 2]. А также в работе строится метод приближения плотностей, использующий сплайн-функции, сохраняющие интеграл [3], при применении цепей Маркова [4].


Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В работе рассмотрен классификатор, построенный при помощи разделяющих функций на основе решающего правила Байеса для случая нормального распределения признаков для произвольных ковариационных матриц. Проведено обобщение алгоритма для случая более чем двух классов.
Рассмотрено 12 баз изображений. Проведено исследование распределения обучающих и тестовых выборок для всех 12-ти классов изображений. Показано, что для классификатора Байеса для случая нормального распределения признаков отклонение от нормы приводит к снижению эффективности для случая двух и трёх классов. Также показано, что использование дополнительных признаков по Фурье спектрам в случае двух классов приводит к незначительному улучшению эффективности распознавания, а в случае трех классов эффективность увеличилась почти на 28%. Кроме того, было показано, что при использовании одного дополнительного признака по Фурье спектру для черно-белого варианта изображения эффективность распознавания по двум классам незначительно ухудшилась, но для случая разделения по трем классам добавление одного лишь четвертого признака не только по большей части улучшило работу классификатора, но результаты почти не уступают работе классификатора при применении шести признаков.
В работе рассмотрено построение разделяющих функций в случае, когда распределение признаков не является нормальным, то есть имеет другое параметрическое или же вовсе не параметрическое распределение. Разобраны такие методы оценки плотности распределения, необходимых для построения разделяющих функций, как Парзеновские окна и метод kn ближайших соседей.
Также в работе построена методика аппроксимации одномерных и двумерных плотностей распределения при помощи сплайн-функций, сохраняющих интеграл. Рассмотрено построение одномерных и двумерных сплайн функций, сохраняющих интеграл, а также приведены результаты численных экспериментов по их применению для аппроксимации гистограммы, построенной по выборке одномерной нормальной случайной величины, и функции распределения двумерной случайной величины .
В дальнейшем предполагается численная реализация построенной методики в MATLAB или Python, а также экспериментальное изучение применимости данной методики к решению задач классификации.



1 Дуда Р. Распознавание образов и анализ сцен / Р. Дуда, П. Харт. - М. : Мир, 1976. - 511 с.
2 Воронцов К. В. Математические методы обучения по прецедентам (теория обучения машин) [Электронный ресурс] / К. В. Воронцов - Курс лекций, 2012. - 141 с. - URL: http://www.machinelearning.rU/wiki/images/6/6d/Voron-ML-1.pdf
3 Федорова О. П. Об одном подходе к приближению функции сплайнами // Вестник Томского государственного университета. Математика и механика. - 2008. - № 2(4). - с. 61-66.
4 Боровков А. А. Теория вероятностей: Учебное пособие для студентов вузов, обучающихся по направлениям подготовки 010100 «Математика». - Изд. стер. - Москва : ЛИБРОКОМ, 2014. - 652 с.
5 Завьялов Ю. С. Методы сплайн-функций / Ю. С. Завьялов, Б. И. Квасов, В. Л. Мирошниченко; Под ред. Н. Н. Яненко. - М. : Наука, 1980. - 350,[2] с.
6 Шевченко У. В. Метод построения двумерного сплайна и исследование способов задания дополнительных условий: дипломная работа: [рукопись] / У. В. Шевченко - Томск, 2009. - 82 с.



Работу высылаем на протяжении 30 минут после оплаты.




©2025 Cервис помощи студентам в выполнении работ