🔍 Поиск готовых работ

🔍 Поиск работ

СОЗДАНИЕ АЛГОРИТМА ГЕНЕРАЦИИ ОБРАЗОВАТЕЛЬНОГО КОНТЕНТА С ИСПОЛЬЗОВАНИЕМ БОЛЬШИХ ЯЗЫКОВЫХ МОДЕЛЕЙ

Работа №197815

Тип работы

Магистерская диссертация

Предмет

информационные системы

Объем работы68
Год сдачи2024
Стоимость4830 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
23
Не подходит работа?

Узнай цену на написание


СПИСОК ИЛЛЮСТРАЦИЙ 3
Введение 8
1 Анализ задачи генерации образовательного контента 10
1.1 Состав данных 13
2. Анализ существующих решений в области генерации образовательного контента 17
3 Метрика 19
4 Обзор используемых архитектур 21
4.1 Модели-трансформеры 21
4.2 Большие языковые модели 25
5 Реализация 26
5.1 Улучшения во второй итерации алгоритма 35
5.1.1 Few-shot prompting 35
5.1.2 Fine-tuning 37
5.1.3 Добавление нового Агента в алгоритм генерации 41
5.2 Улучшения в третьей итерации алгоритма 42
5.2.1 Retrieval Augmented Generation 42
5.3 Создание итоговой версии алгоритма 43
5.4 Генерация теоретических материалов 46
6 Результаты 51
Заключение 54
Список использованных источников и литературы 55
Приложение 1 60
Корректно ли считать «prompt engineering» связанным с инженерией термином 60


В современном образовательном пространстве актуальность и качество учебных материалов играют ключевую роль в обеспечении эффективного обучения и развития навыков. Особое внимание уделяется созданию образовательных задач, способствующих глубокому усвоению материала и развитию практических умений. В контексте дисциплин, связанных с информационными технологиями и программированием, эта задача приобретает особую актуальность, так как требует регулярного обновления заданий в соответствии с постоянно развивающимися технологиями и языками программирования.
Одной из ключевых проблем в создании образовательного контента является необходимость обеспечения его высокой адаптивности и индивидуализации, что требует значительных трудозатрат и времени от преподавателей и разработчиков курсов. В этом контексте возникает потребность в инструментах и методах, способных автоматизировать и оптимизировать процесс генерации качественных и релевантных образовательных задач.
Большие языковые модели (LLM), такие как GPT (Generative Pre-trained Transformer) [11], открывают новые возможности для решения указанной проблемы. Благодаря своей способности генерировать тексты на основе огромного количества данных, они могут быть использованы для создания разнообразных образовательных задач, включая задачи по программированию. Использование LLM позволяет не только генерировать уникальные задания, соответствующие определенным учебным целям, но и адаптировать их под индивидуальные потребности учащихся, тем самым повышая эффективность учебного процесса.
В рамках данной работы проводится анализ задачи по генерации образовательного контента в области информационных технологий и программирования (IT) и анализ существующих решений, основанных на больших языковых моделях а также описывается подход к генерации образовательного контента для образовательной платформы с использованием LLM.
Стоит отметить, что для выполнения требований соглашения о неразглашении, образовательная платформа, для которой разрабатывался данный алгоритм не будет названа в этой работе.
Задачи работы:
1. Проанализировать текущие процессы создания образовательного контента и требования к созданию алгоритма генерации различных типов контента.
2. Определить наиболее подходящие существующие большие языковые модели для использования в алгоритме генерации контента.
3. Выбрать метрики для оценки качества работы алгоритма.
4. Разработать алгоритм, основанный на больших языковых моделях.
5. Определить и имплементировать возможные подходы к улучшению метрик алгоритма.
6. Проанализировать метрики моделей после применения подходов к улучшению.
7. Подвести итоги касательно эффективности алгоритмов генерации образовательного контента на основе больших языковых моделей.


Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В данной работе был проведен анализ процесса создания образовательного контента на онлайн-платформе, выделены основные особенности и правила создания теоретических текстов и задач, а также предложены различные подходы к созданию алгоритма генерации данного контента на основе больших языковых моделей. Разработанный алгоритм может быть в дальнейшем использован для решения данной задачи. Цель данной работы достигнута, задачи выполнены.
Использование простой системы без дополнительных Агентов с различными ролями для валидации сгенерированного контента не позволяет достичь желаемых результатов по метрике Acceptance Rate. В то же время, эмпирические свидетельства результата проверки на пользователях в рамках онлайн тестирования позволяют утверждать, что Сеть Агентов LLM может генерировтаь задачи на приемлемом для авторов и пользователей уровне и при этом придерживаться стилистики данной платформы и не допускать фактических ошибок и неточностей.
В дальнейшем алгоритм будет доработан путем улучшения качества промптов Агентов, сбору большего датасета для RAG, а также за счет дообучения модели для Агента «Author» на данных по обратной связи. Также не стоит упускать из внимания потенциальные новые LLM, которые могут быть выпущены в ближайшее время и качество генерации текстов которых будут существенно превышать все имеющиеся на данный момент в публичном доступе алгоритмы.
Также, частью данной работы был анализ используемой терминологии в среде разработки и исследований больших языковых моделей и предложены альтернативные варианты для названия метода промпт инжиниринга.



1. Donahoe B. et al. Using EdTech to enhance learning //International Journal of the Whole Child. - 2019. - Т. 4. - №. 2. - С. 57-63.
2. Williamson B. Big EdTech //Learning, Media and Technology. - 2022. - Т. 47. - №. 2. - С. 157-162.
3. Chen Y. Y. et al. Design and implementation of cloud analytics-assisted smart power meters considering advanced artificial intelligence as edge analytics in demand-side management for smart homes //Sensors. - 2019. - Т. 19. - №. 9. - С. 2047.
4. Bahdanau D., Cho K., Bengio Y. Neural machine translation by jointly learning to align and translate //arXiv preprint arXiv: 1409.0473. - 2014.
5. Luong M. T., Pham H., Manning C. D. Effective approaches to attention-based neural machine translation //arXiv preprint arXiv:1508.04025. - 2015.
6. Vaswani A. et al. Attention is all you need //Advances in neural information processing systems. - 2017. - Т. 30.
7. Cordonnier J. B., Loukas A., Jaggi M. Multi-head attention: Collaborate instead of concatenate //arXiv preprint arXiv:2006.16362. - 2020.
8. Devlin J. et al. Bert: Pre-training of deep bidirectional transformers for language understanding //arXiv preprint arXiv: 1810.04805. - 2018.
9. Brown T. et al. Language models are few-shot learners //Advances in neural information processing systems. - 2020. - Т. 33. - С. 1877-1901.
10. Radford A. et al. Language models are unsupervised multitask learners //OpenAI blog. - 2019. - Т. 1. - №. 8. - С. 9.
11. Radford A. et al. Improving language understanding by generative pre-training. - 2018.
12. Marvin G. et al. Prompt Engineering in Large Language Models //International Conference on Data Intelligence and Cognitive Informatics. - Singapore : Springer Nature Singapore, 2023. - С. 387-402.
13. Friedlob G. T., Plewa Jr F. J. Understanding return on investment. - John Wiley & Sons, 1996.
14. ClickHouse: The real-time data warehouse for analytics observability [Электронный ресурс] // clickhouse.com[сайт]. [2024]. URL: https://clickhouse.com(дата обращения: 10.05.2024).
15. Bender J., Dziena A., Kaiser G. Learning computational thinking efficiently with block-based Parsons puzzles //30th International Conference on Computers in Education (ICCE). - 2022.
16. Sarker L. et al. Syntactic Robustness for LLM-based Code Generation //arXiv preprint arXiv:2404.01535. - 2024.
17. Olney A. M. Generating multiple choice questions from a textbook: Llms match human performance on most metrics //AIED Workshops. - 2023.
18. Rawte V., Sheth A., Das A. A survey of hallucination in large foundation models //arXiv preprint arXiv:2309.05922. - 2023.
19. Lewis P. et al. Retrieval-augmented generation for knowledge-intensive nlp tasks //Advances in Neural Information Processing Systems. - 2020. - Т. 33. - С. 9459-9474.
20. Giray L. Prompt engineering with ChatGPT: a guide for academic writers //Annals of biomedical engineering. - 2023. - Т. 51. - №. 12. - С. 2629-2633.
21. Schmidhuber J. Deep learning in neural networks: An overview //Neural networks. - 2015. - Т. 61. - С. 85-117. ++ Becker S. et al. Interpreting and explaining deep neural networks for classification of audio signals //arXiv preprint arXiv:1807.03418. - 2018.
22. Niu Z., Zhong G., Yu H. A review on the attention mechanism of deep learning //Neurocomputing. - 2021. - Т. 452. - С. 48-62.
23. Shen K. et al. A study on relu and softmax in transformer //arXiv preprint arXiv:2302.06461. - 2023.
24. Ezen-Can A. A Comparison of LSTM and BERT for Small Corpus //arXiv preprint arXiv:2009.05451. - 2020.
25. Hoffmann J. et al. Training compute-optimal large language models //arXiv preprint arXiv:2203.15556. - 2022.
26. Introducing the next generation of Claude [Электронный ресурс] //
anthropic.com[сайт]. [2024]. URL:https://anthropic.com/news/claude-3-family
(дата обращения: 10.05.2024).
27. Jupyter Notebook [Электронный ресурс] //jupyter.org[сайт]. [2024]. URL:https://jupyter.org(дата обращения: 10.05.2024).
28. PyCharm: The Python IDE for Professional Developers [Электронный ресурс] //jetbrains.com[сайт]. [2024]. URL:https://jetbrains.com/pycharm/(дата обращения: 10.05.2024).
29. NumPy [Электронный ресурс] //numpy.org[сайт]. [2024]. URL: https://numpy.org(дата обращения: 10.05.2024).
30. Anthropic Python API library [Электронный ресурс] //pypi.org[сайт]. [2024]. URL:https://pypi.org/project/anthropic(дата обращения: 10.05.2024).
31. OpenAI Python API library [Электронный ресурс] //github.com[сайт].
[2024]. URL: https://github.com/openai/openai-python(дата обращения:
10.05.2024).
32. LangChain python module [Электронный ресурс] //pypi.org[сайт]. [2024]. URL:https: //pypi.org/proj ect/langchain(дата обращения: 10.05.2024).
33. Apache Airflow [Электронный ресурс] //airflow.apache.org[сайт]. [2024]. URL:https: //airflow.apache. org(дата обращения: 10.05.2024).
34. Django The web framework for perfectionists with deadlines.
[Электронный ресурс] //djangoproject.com[сайт]. [2024]. URL:
https://djangoproject.com(дата обращения: 10.05.2024).
35. Apache Superset [Электронный ресурс] // superset.apache.org[сайт]. [2024]. URL:https://superset.apache.org(дата обращения: 10.05.2024).
36. Reynolds L., McDonell K. Prompt programming for large language models: Beyond the few-shot paradigm //Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems. - 2021. - С. 1-7.
37. Alexandr N. et al. Fine-tuning GPT-3 for Russian text summarization //Data Science and Intelligent Systems: Proceedings of 5th Computational Methods in Systems and Software 2021, Vol. 2. - Springer International Publishing, 2021. - С. 748-757.
38. Liu X. et al. GPT understands, too //AI Open. - 2023.
39. ZERBINATI A. Fine-Tuning of Large Language Models for Knowledge Injection and Question-Answering.
40. Rafailov R. et al. Direct preference optimization: Your language model is secretly a reward model //Advances in Neural Information Processing Systems. - 2024. - Т. 36.
41. Musumeci E. et al. LLM Based Multi-Agent Generation of Semi-structured Documents from Semantic Templates in the Public Administration Domain //arXiv preprint arXiv:2402.14871. - 2024.
42. Xi Z. et al. The rise and potential of large language model based agents: A survey //arXiv preprint arXiv:2309.07864. - 2023.
43. Liu P. et al. Pre-train, prompt, and predict: A systematic survey of prompting methods in natural language processing //ACM Computing Surveys. - 2023. - Т. 55. - №. 9. - С. 1-35.
44. Wright P. H. Introduction to Engineering Library. - John Wiley & Sons, 2002.
45. OpenAI Prompt Engineering Guidelines [Электронный ресурс] //
platform.openai.com [сайт]. [2024]. URL:
https://platform.openai.com/docs/guides/prompt-engineering(дата обращения: 10.05.2024).
46. Anthropic Prompt Engineering [Электронный ресурс] // docs.anthropic.com[сайт]. [2024]. URL:https://docs.anthropic.com/en/docs/prompt-engineering(дата обращения: 10.05.2024).
47. Nvidia Developer: An Introduction to Large Language Models: Prompt Engineering and P-Tuning [Электронный ресурс] // developer.nvidia.com[сайт]. [2024]. URL:https://developer.nvidia.com/blog/an-introduction-to-large-language-models-prompt-engineering-and-p-tuning(дата обращения: 10.05.2024).
48. Koen B. V. Definition of the Engineering Method. - ASEE Publications, Suite 200, 11 Dupont Circle, Washington, DC 20036, 1985.
49. Kojima T. et al. Large language models are zero-shot reasoners //Advances in neural information processing systems. - 2022. - Т. 35. - С. 22199-22213.
50. Buede D. M., Miller W. D. The engineering design of systems: models and methods. - John Wiley & Sons, 2024.
51. Bender E. M. et al. On the dangers of stochastic parrots: Can language models be too big?^ //Proceedings of the 2021 ACM conference on fairness, accountability, and transparency. - 2021. - С. 610-623.
52. Wang Y. et al. Aligning large language models with human: A survey //arXiv preprint arXiv:2307.12966. - 2023.
53. Blanchard B. S., Fabrycky W. J., Fabrycky W. J. Systems engineering and analysis. - Englewood Cliffs, NJ : Prentice hall, 1990. - Т. 4.
54. Mathur S., Malik S. Advancements in the V-Model //International Journal of Computer Applications. - 2010. - Т. 1. - №. 12. - С. 29-34.
55. Diao S. et al. Black-box prompt learning for pre-trained language models //arXiv preprint arXiv:2201.08531. - 2022.
56. Schick T., Schutze H. True few-shot learning with Prompts—A real-world perspective //Transactions of the Association for Computational Linguistics. - 2022. - Т. 10. - С. 716-731.


Работу высылаем на протяжении 30 минут после оплаты.




©2025 Cервис помощи студентам в выполнении работ