🔍 Поиск готовых работ

🔍 Поиск работ

Стилизация текстов при помощи нейронных сетей

Работа №203560

Тип работы

Дипломные работы, ВКР

Предмет

математика и информатика

Объем работы55
Год сдачи2019
Стоимость4550 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
18
Не подходит работа?

Узнай цену на написание


АННОТАЦИЯ 2
ВВЕДЕНИЕ 5
1 МАТЕМАТИЧЕСКИЕ МЕТОДЫ, ПРИМЕНЯЮЩИЕСЯ В РЕШЕНИИ
ЗАДАЧИ СТИЛИЗАЦИИ ТЕКСТОВ 7
1.1 История методов обработки текстов 7
1.2 Классификация методов генерации текстов 7
1.3 Цепи Маркова 7
1.4 Генеративно-состязательная сеть (GAN) 9
1.5 Полносвязная сеть (персептрон) 10
1.6 Одномерная сверточная сеть 11
1.7 Долгая краткосрочная память 13
1.8 Выводы по разделу 15
2 МАТЕМАТИЧЕСКАЯ МОДЕЛЬ, АРХИТЕКТУРА И АЛГОРИТМЫ ПРИМЕНЕНИЯ НЕЙРОННОЙ СЕТИ ДЛЯ РЕШЕНИЯ ЗАДАЧИ
ГЕНЕРАЦИИ ТЕКСТА 17
2.1 Исходные данные 17
2.2 Математическая модель слоев нейронной сети 18
2.3 Математическая модель преобразования ветора вероятностей 29
2.4 Архитектура нейронной сети 30
2.5 Алгоритмы работы программы 31
2.6 Выводы по разделу 33
3 РЕЗУЛЬТАТЫ РАБОТЫ ПРОГРАММЫ И ПРОВЕДЕНИЕ
ВЫЧИСЛИТЕЛЬНЫХ ЭКСПЕРИМЕНТОВ С НЕЙРОННОЙ СЕТЬЮ 35
3.1 Обучающая выборка 35
3.2 Проведение вычислительных экспериментов с нейронной сетью 35
3.3 Примеры текстов, сгенерированных программой 41
3.4 Выводы по разделу 41
4 РАЗРАБОТКА ПОЛЬЗОВАТЕЛЬСКОГО ИНТЕРФЕЙСА И ПРОВЕРКА
РАБОТЫ ПРОГРАММЫ 43
4.1 Функции системы 43
4.2 Архитектура приложения 43
4.3 Описание интерфейса программы 44
4.4 Проверка работы программы на данных, введенных пользователем .... 45
4.5 Выводы по разделу 47
ЗАКЛЮЧЕНИЕ 48
БИБЛИОГРАФИЧЕСКИЙ СПИСОК 49
ПРИЛОЖЕНИЕ 1 52

У многих писателей есть собственный, неповторимый, уникальный и узнаваемый художественный стиль. Придерживаясь грамматических правил языка, а иногда и нарушая их, они создают предложения, объединяя слова в нужные конструкции и донося до читателя свою мысль. Некоторые прибегают к обратному порядку слов в предложении, некоторые используют разнообразные средства художественной выразительности, например, метафоры и сравнения, а некоторые придумывают слова, которые не зафиксированы в словарях и не существуют в языке.
Целью данной работы является попытка воссоздать часть уникальности стиля того или иного автора в текстах, не принадлежащих его перу. Задача заключается в создании инструмента автоматической стилизации любого жанра текстов под определенную манеру письма русских классиков. Для выполнения данной задачи рассмотрим различные методы решения сходных проблем и выберем наиболее подходящий.
Полученный инструмент будет полезен для исследователей- лингвистов, а также для создателей разнообразного контента. Для обеспечения возможности использования результатов данной работы широкому кругу пользователей будет разработан графический интерфейс, упрощающий работу с моделью.
Таким образом, основной целью данной работы является разработка модели и алгоритмов применения нейронной сети, предназначенной для генерации текстов на русском языке. Для достижения данной цели необходимо решить следующие задачи:
1) анализ методов стилизации текстов;
2) разработка математической модели нейронной сети стилизации текстов на русском языке;
3) разработка алгоритма применения нейронной сети стилизации текстов на русском языке;
4) проектирование интерфейса и выполнение программной реализации;
5) проведение вычислительных экспериментов по стилизации текстов на русском языке.

Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В результате работы были решены следующие задачи:
1) выполнен обзор математических методов, применяющиеся в области обработки последовательностей и генерации текстов;
2) разработаны математическая модель и архитектура нейронной сети, решающей задачу генерации текстов на русском языке, а также алгоритмы для ее применения. Разработанная модель имеет ряд преимуществ:
а) оптимизированная работа с текстами на русском языке;
б) возможность детальной настройки модели при обучении;
в) множество режимов генерации текста;
3) выполнена программная реализация разработанной модели нейронной сети с использованием современных библиотек (Keras, TensorFlow);
4) проведены вычислительные эксперименты при обучении реализованной нейронной сети, на их основе было принято решение использовать 4 LSTM слоя размера 156, длину префикса 60 и не использовать «дропаут», сеть обучалась на протяжении 5 эпох и достигла точности предсказания в 98,1%;
5) разработана компьютерная программа, обеспечивающая
возможность удобной и наглядной работы с моделью;
6) осуществлена проверка работа программы в условиях взаимодействия с пользователем;
7) Наличие асинхронного режима, позволяющего использовать особенности архитектуры современных графических карт для обеспечения максимальной скорости работы программы. Данная возможность была использована при разработке программы, что позволило обеспечить плавную работу пользовательского интерфейса.



1. Марков, А.А. Распространение закона больших чисел на величины, зависящие друг от друга / А.А. Марков // Известия физико-математического общества при Казанском университете. - Том 15. - 1906. - С. 135-156.
2. Гасфилд, Д. Строки, деревья и последовательности в алгоритмах / Д. Гасфилд. - БХВ-Петербург, 2003. - 656 с.
3. Кнут, Д.Э. Искусство программирования, том 3. Сортировка и поиск/ Д.Э. Кнут. - Москва: ООО «И.Д. Вильямс», 2007. - 832 с.
4. Z-функция строки и её вычисление - Дата обновления: 26.04.2012. URL: http://e-maxx.ru/algo/z_function (дата обращения: 22.03.2019).
5. Huang, H. An Introduction to Image Synthesis with Generative Adversarial Net / H. Huang, P.S. Yu, C. Wang // Cornell University Library. - 2018. - P. 5-15.
6. Rubin, M. TOP-GAN: Label-Free Cancer Cell Classification Using Deep Learning with a Small Training Set / M. Rubin, O. Stein, N. A. Turko // Cornell University Library. - 2018. - 11 p.
7. Donahue, D. Adversarial Text Generation Without Reinforcement Learning / D. Donahue, A. Rumshisky // Cornell University Library. - 2019. - 6 p.
8. Петросян, Л.А. Теория игр: учебник / Л.А. Петросян, Н.А. Зенкевич, Е.В. Шевкопляс. - Санкт-Петербург: БХВ-Петербург, 2012. - 432 с.
9. Jaderberg, M. Deep structured output learning for unconstrained text recognition/ M. Jaderberg, K. Simonyan, A. Vedaldi, A. Zisserman // USA, International Conference on Learning Representations. - 2015. - P. 7-16.
10. Zeiler, M. Adadelta: an adaptive learning rate method/ M. Zeiler // USA, Cornell University Library. - 2012. - P. 1-13.
11. Francois, C. Deep Learning with Python/ C. Francois. - Manning Publications Co, 2007. - P. 541-551.
12. LeCun, Y. Backpropagation Applied to Handwritten Zip Code Recognition / B. Boser, J.S. Denker, D. Henderson // Neural Computation. - 1989. - P. 541-5.
13. Jaderberg, M. Reading text in the wild with convolutional neural networks / M. Jaderberg, K. Simonyan, A. Vedaldi, A. Zisserman // International Journal of Computer Vision, V.116, №1. - 2015. - P. 1-20.
14. Bengio, Y. Learning longterm dependencies with gradient descent is difficult / Y. Bengio, P.Y. Simard, P. Frasconi. // NN, V.5. - 1994. - P. 157-166.
15. Hochreiter, S. Long short-term memory / S. Hochreiter, J. Schmidhuber // Neural Computation vol. 9, №8. - 1997. - P. 1735-1780.
..24


Работу высылаем на протяжении 30 минут после оплаты.




©2025 Cервис помощи студентам в выполнении работ