Тип работы:
Предмет:
Язык работы:


ЭКСПЕРИМЕНТАЛЬНОЕ СРАВНЕНИЕ ДВУХ МЕТОДОВ АВТОМАТИЧЕСКОГО РЕФЕРИРОВАНИЯ НА ПРИМЕРЕ НОВОСТНЫХ СТАТЕЙ

Работа №38078

Тип работы

Дипломные работы, ВКР

Предмет

информатика

Объем работы61
Год сдачи2019
Стоимость6500 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
172
Не подходит работа?

Узнай цену на написание


ВВЕДЕНИЕ 4
ОБЗОР ЛИТЕРАТУРЫ 7
1 ЭКСТРАКТИВНЫЙ ПОДХОД 8
1.1 Алгоритм ранжирования предложений 8
1.2 Лемматизация и стемминг 9
1.3 Извлечение именованных сущностей 9
1.4 Инструменты для обработки естественных языков 10
2 АБСТРАКТИВНЫЙ ПОДХОД 12
2.1 Рекуррентные нейронные сети 13
2.2 Трансформер 17
2.3 Механизм внимания 21
2.4 Вектор запроса, вектор ключа и вектор значения. 24
2.5 Матричные вычисления механизма внимания 27
2.6 Многопоточный механизм внимания 28
2.7 Позиционное кодирование 32
2.8 Остаточные соединения 33
2.9 Декодер 34
2.10 Полносвязный слой с функцией активации Softmax 35
2.11 Описание данных 38
2.11 Обучение нейронной сети 39
2.12 Эксперименты 41
3 СРАВНЕНИЕ РЕАЛИЗОВАННЫХ ПОДХОДОВ 43
ЗАКЛЮЧЕНИЕ 45
СПИСОК ЛИТЕРАТУРЫ 46
ПРИЛОЖЕНИЕ


В настоящее время на передний план выходит проблема информационной перегрузки. В связи с высоким ростом количества новостных сайтов, социальных сетей сложно иметь даже поверхностное представление об информации, содержащейся среди всего многообразия представленных документов. Однако, использование современных методов обработки естественных языков позволяет решить данную проблему. В частности, широко применяются алгоритмы для автоматического реферирования текстов.
Автоматическое реферирование - процесс построения краткого содержимого документа, т.е. автоматическое создание реферата. Реферат создается путем выделения наиболее информативных элементов текста. Элементами текста могут выступать слова, предложения, абзацы.
Автоматическое реферирование текстов используется в поисковых системах для того, чтобы уменьшить область поиска. Рефераты могут быть полезны для людей, которым нужно по большому количеству документов на определенную тему за короткий промежуток времени получить представление о данной области. Помимо этого, рефераты применяются в онлайн - переводчиках.
В то же время, методы машинного обучения, в частности глубокого обучения демонстрируют большой успех в различных областях, начиная от самых простых задач, таких как предсказание оттока пользователей (churn prediction) для различного рода услуг (сотовая связь, интернет-услуги, платные подписки), предсказание кредитоспособности заемщика (кредитный скоринг), заканчивая задачами, которые изначально считались выполнимыми только человеком.
Стоит понимать, что несмотря на успешное применение искусственных нейронные сетей в отдельных задачах, они далеки от того, что можно было бы назвать интеллектом. Безусловно, все алгоритмы машинного обучения используют прецеденты, аналогично людям при обучении. В случае человека, новый прецедент рассматривается аналитически, исходя из прошлого опыта и знаний. Для алгоритмов машинного обучения используется лишь статистический подход. Можно утверждать, что человеческий интеллект понимает суть поставленной задачи и решает ее путем логического вывода, а алгоритмы машинного обучения могут только подобрать наиболее вероятный вариант.
Исходя из вышеизложенного следует, что для получения качественно работающей модели машинного обучения необходимо значительно больше прецедентов, чем требуется человеческому интеллекту.
Очевидно, что для сложных задач сложно собрать обучающие выборки достаточных больших размеров - в большинстве производственных задач также используют, методы, основанные на правилах, например, в «Алиса» . Работа чат-бота “Алисы” от компании “Яндекс” основывается на распознавании базовых сценариев, для которых уже разработаны некоторые ответы. Методы, основанные на правилах, являются аналитическим подходом, представленном в формальном виде на одном из языков программирования.
Особый интерес представляют методы машинного обучения в задаче реферирования, для которых существуют подходы, основанные на правилах.
Задача реферирования с точки зрения человека является достаточно тривиальной. Тем не менее, составление алгоритма автоматического выделения “смысла в сжатой форме” приводит к определенным сложностям в связи с трудностью формализации понятия “смысл”. Первые работы по данной тематике посвящены так называемому экстрактивному подходу. Экстрактивный подход заключаются в выделении нескольких предложений, в которых содержится большая часть информации исходного текста. Выделение таких предложений является менее сложной задачей в сравнении с задачей выделения смысла.
Алгоритмы экстрактивного подхода работают следующим образом: (i) Исходный текст разбивается на предложения; (ii) для каждого предложения считается мера информативности; (iii) На основе самых информативных предложений строится реферат документа.
Помимо экстрактивного подхода также существует абстрактивный подход. Данный подход основывается на применении нейронных сетей. Исходный текст сжимается с использованием техник перефразирования и позволяет получить более короткие рефераты.
Таким образом, целью настоящей работы является решение проблемы избыточности информации путем применения методов реферирования на основе экстрактивного и абстрактивного подходов.


Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В данной работе была рассмотрена задача автоматического реферирования и применения результатов ее решение к проблеме избыточности информации.
Были рассмотрены два различных подхода автоматического реферирования - экстрактивные и абстрактивные методы решения.
Одной из важных особенностей экстрактивного подхода является то, что существует большое количество качественно работающих алгоритмов, основанных на правилах. В отличие от экстрактивных методов для абстрактивных подходов решения аналогичных правил не существует.
Были выявлены особенности используемых подходов.
В случае экстрактивного подхода полученные аннотации часто теряют связность изложения, но сохраняют основные тезисы новостной статьи.
Абстрактивные методы демонстрируют качественные результаты, но при этом требуют больших вычислительных ресурсов и больших объемов данных. Однако, даже использование большого количестве тренировочных данных никаким образом не гарантирует грамотно сформированной аннотации на выходе нейронной сети.



1. Barzilay R., Elhadad M. Using lexical chains for text summarization //Advances in automatic text summarization. - 1999. - С. 111-121.
2. Mani I. Advances in automatic text summarization. - MIT press, 1999.
3. Hovy E. et al. Automated text summarization in SUMMARIST //Advances in automatic text summarization. - 1999. - Т. 14.
4. Salton G. et al. Automatic text structuring and summarization //Information Processing & Management. - 1997. - Т. 33. - №. 2. - С. 193-207.
5. Mihalcea R., Tarau P. Textrank: Bringing order into text //Proceedings of the 2004 conference on empirical methods in natural language processing. - 2004.
6. Page L. et al. The PageRank citation ranking: Bringing order to the web. - Stanford InfoLab, 1999.
7. See A., Liu P. J., Manning C. D. Get to the point: Summarization with pointer- generator networks //arXiv preprint arXiv:1704.04368. - 2017.
8. Paulus R., Xiong C., Socher R. A deep reinforced model for abstractive summarization //arXiv preprint arXiv:1705.04304. - 2017.
9. Gehrmann S., Deng Y., Rush A. M. Bottom-up abstractive summarization //arXiv preprint arXiv:1808.10792. - 2018.
10. Cho K. et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation //arXiv preprint arXiv:1406.1078. - 2014.
11. Vaswani A. et al. Attention is all you need //Advances in neural information processing systems. - 2017. - С. 5998-6008.
12.Sordoni A. et al. A hierarchical recurrent encoder-decoder for generative context-aware query suggestion //Proceedings of the 24th ACM International on Conference on Information and Knowledge Management. - ACM, 2015. - С. 553-562.
13.Serban I. V. et al. A hierarchical latent variable encoder-decoder model for generating dialogues //Thirty-First AAAI Conference on Artificial Intelligence. - 2017.
14. Cho K. et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation //arXiv preprint arXiv:1406.1078. - 2014.
15. Lu L. et al. A study of the recurrent neural network encoder-decoder for large vocabulary speech recognition //Sixteenth Annual Conference of the International Speech Communication Association. - 2015.
16. Christopher Olah. Understanding LSTM Networks. [Электронный ресурс].
URL: https://colah. github.io/posts/2015-08-Understanding-LSTMs (дата
обращения 26.05.2019)
17. Jay Alammar. The Illustrated Transformer. [Электронный ресурс]. URL:
http ://jalammar. github. io/illustrated-transformer/ (дата обращения:
02.06.2019)


Работу высылаем на протяжении 30 минут после оплаты.




©2025 Cервис помощи студентам в выполнении работ