Тип работы:
Предмет:
Язык работы:


РАЗРАБОТКА МЕТОДА ПОВЫШЕНИЯ ТОЧНОСТИ НЕЙРОННЫХ СЕТЕЙ ПРИ НАЛИЧИИ ОШИБОК АННОТИРОВАНИЯ В ОБУЧАЮЩЕЙ ВЫБОРКЕ

Работа №33327

Тип работы

Магистерская диссертация

Предмет

информационные системы

Объем работы78
Год сдачи2019
Стоимость4900 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
257
Не подходит работа?

Узнай цену на написание


ВВЕДЕНИЕ 3
1 Постановка задачи 6
1.1 Определения 6
1.2 Постановка задачи 6
2 Обзор актуальных методов 8
3 Описание исследуемого алгоритма 13
3.1 Local Intrinsic Dimensionality (LID) 13
3.2 Влияние ошибок аннотирования тренировочной выборки на LID 14
3.3 Метод обучения при наличии ошибок аннотирования 14
4 Реализация 17
5 Эксперименты 21
5.1 Изучение пространства характеристик нейронной сети 21
5.1.1 Вычисление значений LID относительно множеств .... 21
5.1.2 Вычисление расстояния до центроидов множеств 23
5.1.3 Модификация алгоритма обучения 24
5.2 Корректировка параметров реализованного метода 26
5.3 Изучение изменения значений LID в ходе обучения 28
6 Результаты 32
6.1 Вычисление значений LID на основе параллельно обучаемых
подсетей 32
6.1.1 Новый метод вычисления LID 32
6.1.2 Модификация алгоритма обучения 36
6.2 Очищение набора данных от шума 41
ЗАКЛЮЧЕНИЕ 44
СПИСОК ЛИТЕРАТУРЫ 46
ПРИЛОЖЕНИЯ 49


Все алгоритмы машинного обучения, следующие схеме обучения с учителем требуют наличия обучающей выборки, элементы которой, как правило, задаются в виде пар данные - метка. В случае решения задачи классификации, данные представляют собой классифицируемый объект, например, изображение, а метка определяет ту категорию, к которой принадлежит это изображение. Основной сложностью в составлении такого набора данных является аннотирование классифицируемых объектов. В процессе аннотирования часто должен, хотя бы отчасти, участвовать человек, так как в противном случае уже имеется алгоритм, который успешно решает требуемую задачу. Таким образом, при аннотировании всегда присутствует человеческий фактор, что приводит к наличию в обучающей выборке ошибок аннотирования или по-другому - шума меток (англ. label noise). Явным примером задачи, в которой могут возникнуть ошибки аннотирования, является классификация собак по породам: существуют такие породы, что даже эксперту будет сложно определить правильный вариант с абсолютной уверенностью. Более того, ситуация может усугубляться, если для аннотирования используется краудсорсинг. Как правило, в таких случаях люди, аннотирующие данные, не имеют какой-либо специальной квалификации, связанной с решаемой задачей. Также некоторые люди могут намеренно выполнять аннотирование недобросовестно. По описанным причинам доля неправильно помеченных элементов тренировочной выборки может быть довольно большой, что, в свою очередь, часто приводит к понижению эффективности любого алгоритма машинного обучения [1] и, в частности, нейронных сетей [2].
Опишем в общих чертах проблему, к которой приводят ошибочно помеченные элементы. Изначально нейронная сеть, как правило, инициализируется случайными весами. После этого начинается процесс обучения. Каждый элемент тренировочной выборки подается на вход сети, которая выдает результат для этого элемента. В самом начале обучения ответы сети случайны, поэтому многие из них неверные. Благодаря неверным ответам происходит обновление весов сети таким образом, чтобы сеть на этих примерах ошибалась реже, а эффективность предсказаний в целом повышалась. На более поздних стадиях обучения доля примеров, на которых нейронная сеть дает неправильный результат, становится меньше, поэтому суммарное обновление параметров уменьшается. Однако в присутствии зашумленных меток с улучшением эффективности сети увеличивается и эффект шума, потому что среди множества элементов, на которых сеть ошибается, их доля возрастает. Следовательно, сеть может дать верное предсказание, но ей все равно придется обновляться, так как метка в наборе данных неверная. Таким образом, на поздних стадиях обучения большая часть обновлений может быть вызвана неправильными метками, что в свою очередь, как минимум, не позволит сети улучшаться, а как максимум, заставит сеть классифицировать правильно помеченные элементы неверно.
Цель нашей работы - разработка эффективного и конкурентоспособного метода решения задачи классификации изображении в присутствии ошибок аннотирования в обучающей выборке. Выделим задачи, которые необходимо решить, для достижения данной цели:
1) проведение анализа существующих эффективных методов решения задачи классификации в присутствии ошибок аннотирования;
2) выбор одного или нескольких из этих методов для базирования нашего исследования;
3) реализация программного продукта на основе существующих алгоритмов;
4) проведение экспериментов над реализованным алгоритмом;
5) усовершенствование исследованного метода или создание нового метода на его основе;
6) достижение нашим методом примерно равных или больших значений точности на тестовой выборке по сравнению со значениями, которых достигают существующие методы.
Опишем далее структуру нашей работы. Несмотря на то, что с практической точки зрения задача классификации при наличии ошибок аннотирования в обучающей выборке практически не отличается от случая,
когда ошибки отсутствуют, в части 1 описывается формальная постановка задачи классификации в присутствии таких ошибок.
Опубликовано множество работ, которые направлены на борьбу с проблемой ошибок аннотирования. Обзор актуальных методов дан в части
2. Один из таких методов был взят за основу для исследования и близко изучен. Описание этого метода дано в части 3. Часть 4 содержит описание архитектур рассматриваемых нейронных сетей и их параметров, а также результаты по реализации метода. В части 5 дан экспериментальный анализ алгоритма, в котором предлагаются способы его улучшения и, помимо этого, указываются некоторые его недостатки.
На основе этого анализа был получен более универсальный метод вычисления значений LID, излагаемый в части 6.1.1. Этот метод позволил в некоторых случаях улучшить результаты на рассматриваемых наборах данных. Во взятом за основу методе предполагается, что ошибки аннотирования не зависят от класса, к которому принадлежит элемент выборки. Данное предположение не всегда выполняется в реальных наборах данных, поэтому имеется обоснованная необходимость в расширении метода для успешной работы при любых видах ошибок аннотирования. На основе нового метода вычисления значений LID, нами был разработан алгоритм обучения при произвольном распределении ошибок аннотирования, который описывается в части 6.1.2.
Нами также был предложен еще один метод по повышению эффективности обучаемых моделей в присутствии ошибок аннотирования, который работает на основе любого другого алгоритма, решающего эту задачу. Этот метод излагается в части 6.2.

Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


Нами была рассмотрена задача обучения нейронных сетей в присутствии ошибок аннотирования в обучающей выборке. С целью получения нового эффективного метода, решающего эту задачу, был проведен анализ существующих актуальных методов (см. главу 2). Среди таковых алгоритм обучения из работы [9] был выбран за основу для нашего исследования.
Этот метод был успешно нами реализован (см. главу 4). Показатели эффективности реализованного метода примерно равны соответствующим значениям, представленным в [9], превышая их в некоторых случаях (см. часть 5.2).
Был проведен экспериментальный анализ рассматриваемого метода (см. главу 5), а также сделаны попытки его улучшения (см. часть 5.1). Проведено исследование поведения лежащей в основе алгоритма функции LID в ходе обучения (см. часть 5.3). Было показано, что оно не всегда соответствует тому, что было описано в исходной работе.
В связи с данной проблемой нами был предложен альтернативный метод вычисления функции LID на основе нескольких нейронных подсетей, обучающихся параллельно с основной сетью (см. часть 6.1.1). Благодаря этому методу, значения функции LID являются легко интерпретируемы и более предсказуемыми. Была сделана попытка модификации основного метода путем замены способа вычисления функции LID на новый. Полученные показатели эффективности в некоторых случаях превышают аналогичные значения основного метода.
Авторы исходного метода предполагают, что ошибки аннотирования не зависят от класса, к которому принадлежат элементы выборки. Данное предположение не всегда выполняется в реальных наборах данных, поэтому на основе нового упомянутого выше метода вычисления функции LID, нами был разработан алгоритм обучения при произвольном распределении ошибок аннотирования (см. часть 6.1.2). Наш алгоритм успешно работает как при выполнении указанных предположений, так и в произвольном случае, чем он в значительной степени отличается от метода, взятого за основу.
Помимо этого, нами был предложен еще один метод по повышению эффективности обучаемых моделей в присутствии ошибок аннотирования (см. часть 6.2). Этот метод основывается на очищении обучающей выборки от неправильно помеченных элементов. Преимуществом данного метода является то, что он может быть использован вместе с любым другим алгоритмом борьбы с ошибками аннотирования для детальнейшего повышения эффективности последнего. В частности, метод позволяет значительно повысить эффективность рассмотренного алгоритма.



1. Frenay B., Verleysen M. Classification in the presence of label noise: a survey [Текст] / Frenay B., Verleysen M. // IEEE transactions on neural networks and learning systems. - 2014. - Т. 25. - №. 5. - С. 845-869.
2. Zhang C. et al. Understanding deep learning requires rethinking generalization [Электронный ресурс] / Zhang C. et al. // arXiv preprint arXiv:1611.03530. - 2016.
3. Jiang L. et al. MentorNet: Learning Data-Driven Curriculum for Very Deep Neural Networks on Corrupted Labels [Электронный ресурс] / Jiang L. et al. // arXiv preprint arXiv:1712.05055. - 2017 (дата обращения
10.05.2019) .
4. Malach E., Shalev-Shwartz S. Decoupling “when to update” from “how to update” [Текст] / Malach E., Shalev-Shwartz S. // Advances in Neural Information Processing Systems. - 2017. - С. 960-970.
5. Han B. et al. Co-teaching: Robust training of deep neural networks with extremely noisy labels [Текст] / Han B. et al. // Advances in Neural Information Processing Systems. - 2018. - С. 8535-8545.
6. Reed S. et al. Training deep neural networks on noisy labels with bootstrapping [Электронный ресурс] / Reed S. et al. // arXiv preprint arXiv:1412.6596. - 2014 (дата обращения 10.05.2019).
7. Sukhbaatar S. et al. Training convolutional networks with noisy labels [Электронный ресурс] / Sukhbaatar S. et al. // arXiv preprint arXiv:1406.2080. - 2014 (дата обращения 10.05.2019).
8. Patrini G. et al. Making deep neural networks robust to label noise: A loss correction approach [Текст] / Patrini G. et al. // Proc. IEEE Conf. Comput. Vis. Pattern Recognit.(CVPR). - 2017. - С. 2233-2241.
9. Ma X. et al. Dimensionality-Driven Learning with Noisy Labels [Электронный ресурс] / Ma X. et al. // arXiv preprint arXiv:1806.02612. - 2018 (дата обращения 10.05.2019).
10. LeCun Y. et al. Gradient-based learning applied to document recognition [Текст] / LeCun Y. et al. // Proceedings of the IEEE. - 1998. - Т. 86. - №. 11. - С. 2278-2324.
11. Netzer Y. et al. Reading digits in natural images with unsupervised feature learning [Текст] / Netzer Y. et al. // NIPS workshop on deep learning and unsupervised feature learning. - 2011. - Т. 2011. - №. 2. - С. 5.
12. Krizhevsky A., Hinton G. Learning multiple layers of features from tiny images [Текст] / Krizhevsky A., Hinton G. - Technical report, University of Toronto, 2009. - Т. 1. - №. 4. - С. 7.
13. Houle M. E. Local intrinsic dimensionality I: an extreme-value-theoretic foundation for similarity applications [Текст] / Houle M. E. // International Conference on Similarity Search and Applications. - Springer, Cham, 2017. - С. 64-79.
14. Karger D. R., Ruhl M. Finding nearest neighbors in growth-restricted metrics [Текст] / Karger D. R., Ruhl M. // Proceedings of the thiry-fourth annual ACM symposium on Theory of computing. - ACM, 2002. - С. 741750.
15. Houle M. E., Kashima H., Nett M. Generalized expansion dimension [Текст] / Houle M. E., Kashima H., Nett M. // 2012 IEEE 12th International Conference on Data Mining Workshops. - IEEE, 2012. - С. 587-594.
16. Amsaleg L. et al. Estimating local intrinsic dimensionality [Текст] / Amsaleg L. et al. // Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. - ACM, 2015. - С. 29-38.
17. Levina E., Bickel P. J. Maximum likelihood estimation of intrinsic dimension [Текст] / Levina E., Bickel P. J. // Advances in neural information processing systems. - 2005. - С. 777-784.
18. He K. et al. Deep residual learning for image recognition [Текст] / He K. et al. // Proceedings of the IEEE conference on computer vision and pattern recognition. - 2016. - С. 770-778.
19. Ma X. et al. Characterizing adversarial subspaces using local intrinsic dimensionality [Электронный ресурс] / Ma X. et al. // arXiv preprint arXiv:1801.02613. - 2018 (дата обращения 10.05.2019).
20. Lee K. et al. A simple unified framework for detecting out-of-distribution samples and adversarial attacks [Текст] / Lee K. et al. // Advances in Neural Information Processing Systems. - 2018. - С. 7165-7175.
21. Brodley C. E., Friedl M. A. Identifying mislabeled training data [Текст] / Brodley C. E., Friedl M. A. // Journal of artificial intelligence research. - 1999. - Т. 11. - С. 131-167.
22. Jeatrakul P., Wong K. W., Fung C. C. Data cleaning for classification using misclassification analysis [Текст] / Jeatrakul P., Wong K. W., Fung C. C. // Journal of Advanced Computational Intelligence and Intelligent Informatics. - 2010. - Т. 14. - №. 3. - С. 297-302.
23. Zhang W., Wang D., Tan X. Data cleaning and classification in the presence of label noise with class-specific autoencoder [Текст] / Zhang W., Wang D., Tan X. // International symposium on neural networks. - Springer, Cham, 2018. - С. 256-26.


Работу высылаем на протяжении 30 минут после оплаты.



Подобные работы


©2025 Cервис помощи студентам в выполнении работ