Тема: КЛАССИФИКАТОР БАЙЕСА ДЛЯ НЕПАРАМЕТРИЧЕСКОГО РАСПРЕДЕЛЕНИЯ ПРИЗНАКОВ
Закажите новую по вашим требованиям
Представленный материал является образцом учебного исследования, примером структуры и содержания учебного исследования по заявленной теме. Размещён исключительно в информационных и ознакомительных целях.
Workspay.ru оказывает информационные услуги по сбору, обработке и структурированию материалов в соответствии с требованиями заказчика.
Размещение материала не означает публикацию произведения впервые и не предполагает передачу исключительных авторских прав третьим лицам.
Материал не предназначен для дословной сдачи в образовательные организации и требует самостоятельной переработки с соблюдением законодательства Российской Федерации об авторском праве и принципов академической добросовестности.
Авторские права на исходные материалы принадлежат их законным правообладателям. В случае возникновения вопросов, связанных с размещённым материалом, просим направить обращение через форму обратной связи.
📋 Содержание
Введение 4
1 Постановка задачи 6
1.1 Классификатор Байеса 7
1.1.1 Ошибка классификации 8
1.2 Классификатор Байеса для нормального распределения признаков 10
1.3 Результаты дополнительных исследований 15
2 Классификатор Байеса для неизвестного распределения признаков 21
2.1 Методы оценки плотности распределения: Парзеновские окна, kn ближайших
соседей 22
2.2 Метод оценки плотности при помощи сплайн-функции, сохраняющей интеграл
26
2.2.1 Понятие сплайн-функции одной переменной 26
2.2.2 Сплайн-функция одной переменной, сохраняющая интеграл 27
2.2.3 Примеры аппроксимации плотности распределения 33
2.3 Сплайн-функция двух переменных 34
2.3.1 Построение двумерного кубического сплайна 36
2.3.2 Пример аппроксимации двумерной плотности распределения 40
Заключение 43
Список используемой литературы 44
📖 Введение
В начале XX века Норбертом Винером была основана наука, называющаяся кибернетикой. Это наука об общих закономерностях процессов управления и передачи информации в машинах, живых организмах и обществе. Её появление позволило ввести в процесс исследования вопроса распознавания образов математические методы.
Создание специализированных автоматов, способных выполнять функции распознавания всевозможных объектов, значительно расширяет возможность работы сложных систем, выполняющих различные информационные, логические, аналитические задачи.
Подобные системы используются во многих предприятиях, учреждениях и других местах, где проводится разнообразная работа с базами объектов различных объёмов. Именно поэтому задача распознавания и классификации является актуальной и практически значимой и в настоящее время.
Основой для решения задач распознавания, или же классификации, объектов послужили результаты классической теории статистических решений. В её рамках строились алгоритмы, которые на основе экспериментальных измерений параметров (признаков), характеризующих объект, а также некоторых априорных данных, описывающих классы, позволяют определить конкретный класс, к которому может быть отнесён распознаваемый объект. Дальнейшему развитию теории распознавания послужило применение разделов прикладной математики, методов алгебры логики, а также математическое программирование. В итоге появилось самостоятельное научное направление, называемое математической теорией распознавания.
В данной работе рассмотрены методы решения задачи распознавания образов, основанные на Байесовской теории принятия решения [1]. Причём классификация проводится на основе образов, классовая принадлежность которых нам заранее уже известна (прецеденты). Такая задача распознавания называется классификацией с обучением. Для решения задачи строятся разделяющие функции для случая, когда распределение отдельных признаков и совместное распределение вектора признаков неизвестны, либо являются непараметрическими. Рассматриваются такие методы оценки плотности распределения признаков, как метод Парзеновских окон и метод кп ближайших соседей [1, 2]. А также в работе строится метод приближения плотностей, использующий сплайн-функции, сохраняющие интеграл [3], при применении цепей Маркова [4].
✅ Заключение
Рассмотрено 12 баз изображений. Проведено исследование распределения обучающих и тестовых выборок для всех 12-ти классов изображений. Показано, что для классификатора Байеса для случая нормального распределения признаков отклонение от нормы приводит к снижению эффективности для случая двух и трёх классов. Также показано, что использование дополнительных признаков по Фурье спектрам в случае двух классов приводит к незначительному улучшению эффективности распознавания, а в случае трех классов эффективность увеличилась почти на 28%. Кроме того, было показано, что при использовании одного дополнительного признака по Фурье спектру для черно-белого варианта изображения эффективность распознавания по двум классам незначительно ухудшилась, но для случая разделения по трем классам добавление одного лишь четвертого признака не только по большей части улучшило работу классификатора, но результаты почти не уступают работе классификатора при применении шести признаков.
В работе рассмотрено построение разделяющих функций в случае, когда распределение признаков не является нормальным, то есть имеет другое параметрическое или же вовсе не параметрическое распределение. Разобраны такие методы оценки плотности распределения, необходимых для построения разделяющих функций, как Парзеновские окна и метод kn ближайших соседей.
Также в работе построена методика аппроксимации одномерных и двумерных плотностей распределения при помощи сплайн-функций, сохраняющих интеграл. Рассмотрено построение одномерных и двумерных сплайн функций, сохраняющих интеграл, а также приведены результаты численных экспериментов по их применению для аппроксимации гистограммы, построенной по выборке одномерной нормальной случайной величины, и функции распределения двумерной случайной величины .
В дальнейшем предполагается численная реализация построенной методики в MATLAB или Python, а также экспериментальное изучение применимости данной методики к решению задач классификации.





