Тип работы:
Предмет:
Язык работы:


АВТОМАТИЧЕСКОЕ ОПРЕДЕЛЕНИЕ ТЕМ, АССОЦИИРОВАННЫХ С ПАНДЕМИЕЙ COVID-19, В РУССКОЯЗЫЧНОМ КОРПУСЕ СОЦИАЛЬНЫХ МЕДИА

Работа №139721

Тип работы

Магистерская диссертация

Предмет

филология

Объем работы65
Год сдачи2021
Стоимость4885 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
47
Не подходит работа?

Узнай цену на написание


Введение 3
Глава 1. Тематическое моделирование: основные понятия и алгоритмы 6
1.1 Введение в тематическое моделирование 6
1.2 Задачи и основные алгоритмы тематического моделирования 7
1.3 Обзор алгоритмов BERT и LDA
1.4 Sentence-BERT
1.5 Векторы слов
1.6 TF-IDF
1.7 Оценивание качества тематических моделей 18
Глава 2. Эксперимент по построению тематической модели корпуса сообщений пользователей сети Twitter 23
2.1 Выбор источника и сбор данных 23
2.2 Предварительная обработка корпуса 24
2.3 Построение тематической модели корпуса
2.4 Анализ результатов эксперимента 28
Заключение
Список литературы 36
Приложение


Построение тематической модели корпуса текстов - это задача, относящаяся к области извлечения информации. Это процесс извлечения наборов слов (тем) из набора документов, которые наилучшим образом отражают существующую в данном наборе документов информацию. Тематическое моделирование включает в себя методы, с помощью которых можно оптимизировать работу с большим количеством текстовой информации.
Поскольку тематическое моделирование - многофункциональный, развивающийся метод, в настоящее время он используется во многих областях: от обработки естественного языка до научной литературы, программной инженерии, биоинформатики, гуманитарных наук и так далее. Тематическое моделирование находит широкое применение в решении задач информационного поиска, автоматического аннотирования и индексирования документов, выявления паттернов поведения, обнаружения и отслеживания событий в новостных потоках, построения профилей интересов пользователей в рекомендательных системах и т.д.
В настоящее время значительная часть населения Российской Федерации (48%), согласно исследованию Digital 2020 Global Overview Report [15], использует те или иные социальные сети. Одним из направлений обработки естественного языка является исследование социальных сетей и тематическое моделирование на материале постов пользователей той или иной социальной сети. Актуальность данного исследования определяется значимостью анализа изменения наиболее распространённых тем среди пользователей для различных областей, таких как маркетинг, безопасность, образование, менеджмент и т.д. Результат подобного анализа может помогать задавать вектор развития определенной области, выявляя ключевые и актуальные для пользователей темы.
В данной работе сделан акцент на исследование подтем в рамках темы COVID-19, так как в условиях пандемии активное обсуждение в социальных сетях различных сфер жизни общества даст наиболее показательные результаты использования методов тематического моделирования в определении тем и сопоставлении тематического состава постов пользователей за определенный промежуток времени. В нашем исследовании применяется два подхода к построению тематической модели на основе одного корпуса постов из социальных сетей: латентное размещение Дирихле LDA (Latent Dirichlet Allocation) и двунаправленная мультиязычная модель BERT, а также производится анализ и сравнение полученных результатов.
Целью данной работы является автоматическое исследование тематики сообщений в социальной сети Twitter в заданных хронологических рамках с помощью алгоритмов тематического моделирования.
Для достижения поставленной цели необходимо решить следующий ряд задач:
1) изучение существующих алгоритмов тематического моделирования;
a. обзор анализ хода развития технологии тематического моделирования
b. исследование существующих методов и алгоритмов тематического моделирования
2) выбор источника данных;
3) сбор данных с помощью интерфейсов API Twitter и библиотеки Tweepy для языка программирования Python;
4) предварительная обработка данных;
5) построение тематической модели LDA;
6) построение тематической модели с использованием алгоритмов LDA и BERT;
7) оценка полученных результатов с помощью выбранных методов оценивания качества тематических моделей
8) сравнение результатов экспериментов
В качестве материала исследования была выбрана социальная сеть Twitter. Данная социальная сеть была выбрана в связи с наличием доступного интерфейса API и необходимых для данного исследования параметров для сбора данных, таких как объём постов, язык, страна публикации, временной диапазон и наличие в посте ключевых слов (“коронавирус”, “пандемия”, “covid’’, “ковид”, “корона”), материалом исследования послужил корпус русскоязычных сообщений из социальной сети Twitter на тему COVID-19 за период с 03.2020 по 03.2021. Twitter остается самой “высокой” из всех соцсетей – в среднем на каждого автора приходится 47,1 сообщений в месяц.
В качестве основного инструментария для тематического моделирования в данной работе выбран алгоритм тематического моделирования LDA и нейронная сеть BERT, использование которой должно исключить влияние вышеперечисленных факторов на конечный результат.
Теоретическая значимость исследования заключается в разработке гибридной тематической модели корпуса текстов, совмещающей в себе вероятностную тематическую модель и модель распределенных векторов.
Практическая применимость результатов исследования заключается в описании тематической структуры узкоспециализированного русскоязычного корпуса, а именно, корпуса твитов, содержание которых ассоциировано с СOVID-19. Данное исследование может быть использовано социологами и психологами в мониторинге новостных сообщений и социальных сетей.
В настоящее время отсутствуют работы на предмет исследования русскоязычных сообщений пользователей в социальных сетях на основании модели BERT+LDA. Этот факт подтверждает новизну выпускной квалификационной работы.


Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


Данное исследование показывает возможные варианты использования алгоритмов тематического моделирования с помощью алгоритма LDA и дополнительно полученных векторов с помощью модели BERT, обученной для русского языка на корпусе русскоязычных сообщений из социальной сети Twitter.
Было проведено два эксперимента по построению тематической модели:
1. Построение модели с помощью алгоритма LDA. Для улучшения базового алгоритма была проведена дополнительная фильтрация корпуса, эксперименты по подбору оптимального количества тем и предварительное обучение модели на собранном корпусе;
2. Построение тематической модели с конкатенированными векторами, полученными с помощью алгоритма LDA для информации о вероятностном распределении и векторами, полученными с помощью модели BERT для русского языка для информации о контексте слов и их распределении в документах.
Результат экспериментов оценивался с помощью метрик когерентности для оценки качеств полученных тем и silhouette score для оценки качества полученных кластеров.
Алгоритм LDA показал относительно низкие результаты, даже при дополнительных настройках. При максимальных значениях метрик 1, в данной работе этот результат не был достигнут. Мы получили интерпретируемые темы, отражающие некоторые из происходящих событий, но, рассматривая результаты кластеризации, информация из многих сообщений была извлечена неверно/не была учтена в исследовании. По самой распространенной теме в корпусе (“Ежедневные новостные сводки по заболевшим на территории России/Санкт-Петербурга/Европы”) можно сделать вывод о том, что большая часть сообщений, обработанных алгоритмом - посты новостных ресурсов, не содержащие шум в виде неформальной/разговорной лексики/опечатки.
Второй эксперимент показал более высокие результаты, что доказывает, что гипотеза о том, что дополнительная информация о контексте слова, а именно дополнительно полученные векторы предложений, а не слов, помогает улучшить качество тематической модели и дает более интерпретируемые результаты и, следовательно, на выходе дает более качественные кластеры, о чём свидетельствуют увеличившиеся значения метрик качества.
Мы получили большее количество тем, что говорит о том, что модель справилась с обработкой тех документов, которые в первом эксперименте, либо относились к шуму, либо были ошибочно отнесены к тем или иным кластерам.
Самая распространенная из тем, согласно результатам кластеризации, также относится к новостным сводкам, что свидетельствует о снижении популярности социальной сети Twitter среди пользователей на территории РФ, так как большая часть сообщений в настоящее время производится СМИ и аккаунтами тех или иный организаций, предоставляющих информацию о COVID-19. Несмотря на то, что оба алгоритма хорошо справились с выделением этих тем, в перспективе можно отказаться от исследования тем, произведенных подобными аккаунтами и сделать уклон в сторону исследования сообщений пользовательских аккаунтов, включающего также анализ тональности.
Для улучшения результатов в будущих исследованиях необходимо предпринять следующие шаги:
1. Совершенствование и расширение словаря стоп-слов. Сортировка и отбор наиболее частотных прилагательных/глаголов, слов разговорного стиля, опечаток, сдвоенных слов, лемм. Выделение биграмм/триграмм. Несмотря на фильтрацию с помощью расширенного списка стоп-слов и TF-IDF, в числе самых частотных слов полученных тем присутствует шум в виде вышеперечисленных токенов.
2. Фильтрация сообщений на языках, не используемых в качестве объекта исследования. Библиотека Tweepy учитывает выбор языка при поиске и загрузке постов пользователей, однако, с учётом того, что все сообщения на монгольском языке написаны некоторыми пользователями на кириллице, они попадают в категорию русского языка.
3. Сбор корпуса большего размера с захватом более широкого временного промежутка. Это может повлиять на количество обсуждаемых тем/событий и дополнить уже существующие кластеры тем, таким образом, результат получится более репрезентативным. В настоящее время корпус собран в соответствии с наличием вычислительных мощностей.
4. Обучение модели на пользовательском корпусе. В данном эксперименте были использованы векторы из предварительно обученной модели.
5. Настройка оптимальных гиперпараметров/количества кластеров



1. Воронцов К.В. Аддитивная регуляризация тематических моделей коллекций текстовых документов // Доклады РАН, № 3, 2014. - 268–271 с.
2. Воронцов К.В. Вероятностное тематическое моделирование: теория, модели, алгоритмы и проект BigARTM // Московский физико-технический институт, Москва, 2021.
3. Воронцов К.В., Потапенко А. А. Модификации EM-алгоритма для вероятностного тематического моделирования // Машинное обучение и анализ данных, Т. 1, № 6, 2013. - 657-686с.
4. Воронцов К. В., Потапенко А. А. Регуляризация вероятностных тематических моделей для повышения интерпретируемости и определения числа тем // Компьютерная лингвистика и интеллектуальные технологии: По материалам ежегодной Международной конференции «Диалог» (Бекасово, 4–8 июня 2014 г.) Вып.13 (20). М: Изд-во РГГУ, 2014.
5. Библиотека nltk для Python.[Электронный ресурс] URL: http://www.nltk.org/(дата обращения: 05.10.2020).
6. Библиотека pymystem3. [Электронный ресурс] URL: https://pypi.python.org/pypi/pymystem3/0.1.1 (дата обращения: 19.02.2021).
7. Библиотека Python Tweepy. [Электронный ресурс] URL:https://docs.tweepy.org/en/latest/(дата обращения: 25.11.2020).
8. Библиотека scikit-learn для Python[Электронный ресурс] URL:https://scikit-learn.org/stable/user_guide.html (дата обращения: 20.01.2021)
9. Twitter API. [Электронный ресурс] URL:https://developer.twitter.com/en/docs(дата обращения: 01.10.2020).
10. Митрофанова О.А. Моделирование тематики специальных текстов на основе алгоритма LDA // Избранные труды Международной филологической конференции, СПб, 2013.
11. Модуль stop_words для nltk [Электронный ресурс] URL: https://pypi.python.org/pypi/stop-words (дата обращения: 10.01.2021).
12. Морфологический анализатор pymorphy2. [Электронный ресурс] URL: https://pymorphy2.readthedocs.io/en/latest/user/index.html (дата обращения: 10.12.2020).
13. Сивоголовко Е.В., Методы оценки качества чёткой кластеризации // КИО. 2011. №4. [Электронный ресурс] URL: https://cyberleninka.ru/article/n/metody-otsenki-kachestva-chyotkoy-klasterizatsii (дата обращения: 11.03.2021).
14. Социальная сеть Twitter. URL:https://twitter.com/
15. Статистика использования социальных сетей в 2021// Digital 2020 Global Overview Report. [Электронный ресурс] URL:https://wearesocial.com/blog/2020/01/digital-2020-3-8-billion-people-use-social-media(дата обращения: 10.12.2020).
16. Шадриков А.А. Алгоритмы неотрицательных матричных разложений для тематического моделирования, Москва, 2015.
17. Blei D., Introduction to Probabilistic Topic Models. Communications of the ACM, 2012, p. 77 – 84.
18. Blei D. M., “Probabilistic topic models,” Communications of the ACM, vol. 55, no. 4, 2012, pp. 77–84.
19. Blei D. M. and Lafferty J. D., “Topic models,” Text mining: classification, clustering, and applications, vol. 10, no. 71, 2009, p. 34.
20. Blei D. M., Ng A. Y., and Jordan M. I., “Latent dirichlet allocation,” Journal of machine Learning research, vol. 3, no. Jan, 2003, pp. 993–1022.
21. Bouma G., Normalized (pointwise) mutual information in collocation extraction // Proceedings of GSCL, 2009.
22. Cosine similarity // Wikipedia, the free encyclopedia [Электронный ресурс] URL:https://en.wikipedia.org/wiki/Cosine_similarity (дата обращения: 04.10.2020).
23. Devlin J., Chang M., Lee K., Toutanova K. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, Google AI Language, 2018.
24. Feng Y. and Lapata M., Topic models for image annotation and text illustration // Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, 2010, pp. 831–839
25. Fu Q., Zhuang Y., Gu J., Zhu Y., Guo X., Agreeing to Disagree: Choosing Among Eight Topic-Modeling Methods, Big Data Research, Volume 23, 2021.
26. Garcia K., Berton L., Topic detection and sentiment analysis in Twitter content related to COVID-19 from Brazil and the USA // Applied Soft Computing, Volume 101, 2021.
27. Hofmann T., Probabilistic Latent Semantic Analysis // Proceedings of the Fifteenth Conference on Uncertainty in Artificial Intelligence, San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 1999.
28. Hofmann T., Probabilistic latent semantic indexing // Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval, 1999.
29. Korenčić D., Ristov S., Šnajder J., Document-based topic coherence measures for news media text, Expert Systems with Applications, Volume 114, 2018.
30. Korshunova I., Xiong H., Fedoryszak M., Theis L. Discriminative Topic Modeling with Logistic LDA // 33rd Conference on Neural Information Processing Systems (NeurIPS 2019), Canada, 2019.
31. Lee Daniel and Seung Sebastian. Learning the parts of objects by nonnegative matrix factorization. Nature 401 (6755): 1999, pp. 788–791.
32. Liu L., Tang L., Dong W., Yao S., and Zhou, “An overview of topic modeling and its current applications in bioinformatics,” SpringerPlus, vol. 5, no. 1, 2016, p. 1608.
33. Mikolov T., Sutskever I., Chen K., Corrado G. S., and Dean J., “Distributed representations of words and phrases and their compositionality,” Advances in neural information processing systems, vol. 26, 2013, pp. 3111–3119.
34. Newman D., Lau J. H., Grieser K., and Baldwin T., Automatic evaluation of topic coherence // Human language technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, Stroudsburg, PA, USA: Association for Computational Linguistics, 2010, pp. 100–108.
35. Pennington J., Socher R., and Manning C. D., “Glove: Global vectors for word representation,” in Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), 2014, pp. 1532–1543.
36. Peters M. E., Neumann M., Iyyer M., Gardner M., Clark C., Lee K., and Zettlemoyer L., “Deep contextualized word representations,” 2018.
37. Reimers N. and Gurevych I., Sentence-bert: Sentence embeddings using siamese bertnetworks, 2019.
38. Rousseeuw P., "Silhouettes: a Graphical Aid to the Interpretation and Validation of Cluster Analysis". Computational and Applied Mathematics. 20: 1987, pp. 53–65.
39. RuBERT DeepPavlov Model [Электронный ресурс] URL: https://huggingface.co/DeepPavlov/rubert-base-cased-sentence (дата обращения: 01.02.2021).
40. Topic model // Wikipedia, the free encyclopedia, [Электронный ресурс] URL: https://en.wikipedia.org/wiki/Topic_model (дата обращения: 25.09.2020).
41. Vaswan A., Jones L., Shazeer N., Parmar N., Uszkoreit J., Gomez A.N., Kaiser Ł., Polosukhin I. Attention Is All You Need // 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA, 2017.
42. Xie Q., Zhang X., DingY., Song M., Monolingual and multilingual topic analysis using LDA and BERT embeddings, Journal of Informetrics, Volume 14, Issue 3, 2020.
43. Wallach H., Murray I., Salakhutdinov R., and Mimno D. Evaluation methods for topic models. In Proceedings of the 26th International Conference on Machine Learning (ICML 2009), 2009
44. Williams A., Bowman S., XNLI: Evaluating Cross-lingual Sentence Representations, 2018.
45. Word embedding — Wikipedia, the free encyclopedia, [Электронный ресурс] URL: https://en.wikipedia.org/wiki/Word_embedding (дата обращения: 16.10.2020).


Работу высылаем на протяжении 30 минут после оплаты.




©2024 Cервис помощи студентам в выполнении работ