Тип работы:
Предмет:
Язык работы:


Проектирование агентского приложения для специализированной распределенной вычислительной системы SPD Online filter

Работа №143658

Тип работы

Магистерская диссертация

Предмет

информатика

Объем работы52
Год сдачи2023
Стоимость4620 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
27
Не подходит работа?

Узнай цену на написание


Список сокращений и условных обозначений 3
Введение 5
Постановка задачи 10
Глава 1. Анализ существующих решений 11
1.1 PanDA Pilot 12
1.2 DIRAC Pilot 23
1.3 RADICAL-Pilot 26
Глава 2. Общая архитектура 30
2.1 Workload Management System (WMS) 30
2.2 Формирование задач 32
2.3 Жизненный цикл задач (Jobs) 32
2.4 Взаимодействие WMS и Pilot 33
2.5 Job-executor 33
Глава 3. Архитектура VISOR Pilot 34
Глава 4. Разработка агентского приложения 37
4.1 Выбор стека технологий 37
4.2 Интерфейс взаимодействия с JobExecutor 38
4.3 RabbitMQ 39
4.4 Принимаемые значения статуса задачи 39
4.5 Структура проекта 40
Выводы 42
Заключение 43
Список источников 44
Приложения 49

SPD (Spin Physics Detector) это одна из экспериментальных установок входящих в мегасайнс проект NICA (Nuclotron-based Ion Collider fAcility), которая строится в ОИЯИ (г. Дубна, Россия). Схема комплекса представлена на рисунке 1. Основная цель проводимых на установке исследований - проверка основ квантовой хромодинамики (КХД), фундаментальной теории сильных ядерных взаимодействий, путем изучения поляризованной структуры нуклона и спиновых явлений при столкновении продольно и поперечно поляризованных протонов и дейтронов с энергией центра масс до 27 ГэВ. и светимостью до 1032 см-2 с-1.
Детектор SPD - это универсальный 4п-спектрометр, основанный на современных технологиях. Общее количество каналов регистрации в установке SPD составляет около 500000. С учетом ожидаемой максимальной частоты пересечения пучков около 12 МГц и ожидаемой частоты возникновения интересующих эксперимент событий около 3 МГц, суммарный поток данных с детектора можно оценить как 20 ГБ / с, что эквивалентно 200 ПБ/год (для эксперимента предполагается выделить 30% от времени работы коллайдера). Сбор, обработка и хранение такого объема данных не представляется экономически возможным.
Эксперименты, проводимые на ускорителях, предоставляют возможность исследования взаимодействий ускоренных частиц между собой или с веществом. Такие взаимодействия называются «событием» (ем. рис. 3). Каждое событие не зависит от другого и поэтому может обрабатываться независимо. В обработке данных ФВЭ (Физики Высоких Энергий) событие является наименьшей единицей...

Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В результате получен шаблон инструмента, позволяющий запускать простые задачи на кластере, а также отслеживать некоторые состояния. Разрабатываемый пилотный проект является критичным компонентом системы и требует дальнейшей доработки.
В дальнейшем планируется усовершенствование пилотного приложения, включая разработку новых модулей и оптимизацию существующих, доработать взаимодействие с остальными системами, провести полноценное тестирование на эмулированных данных и в конечном счёте начать интегрировать систему с прикладным ПО.


[1] Эксперимент SPD [Электронный ресурс] // URL: http://spd.jinr.ru/wp-content/uploads/2021/04/SPD Korzenev DIS2021 .pdf(дата обращения: 04.11.2022)
[2] NICA [Электронный ресурс] // URL: https://nica.jinr.ru/ru/(дата обращения: 06.11.2022)
[3] Seven-Year Plan for the Development of JINR for 2024-2030 [Электронный ресурс] // URL: https://indico-hlit.jinr.ru/event/329/contributions/1995/attachments/578/1035/01 Director next 7YP for LIT.pdf (дата обращения: 13.04.2023)
[4] Conceptual design of the Spin Physics Detector [Электронный ресурс] // URL: https://arxiv.org/abs/2102.00442(дата обращения: 13.04.2023)
[5] J. Mo'scicki, M. Lamanna, M. Bubak, and P M. Sloot, “Processing moldable tasks on the grid: Late job binding with lightweight user-level overlay,” Future Generation Computer Systems, vol. 27, no. 6, pp. 725-736, 2011.
[6] T. Glatard and S. Camarasu-Pop, “Modelling pilot-job applications on production grids,” in Proceedings of Euro-Par 2009 - Parallel Processing Workshops. Springer, 2010, pp. 140-149.
[7] A. Delgado Peris, J. M. Hernandez, and E. Huedo, “Distributed scheduling and data sharing in late-binding overlays,” in Proceedings of the International Conference on High Performance Computing & Simulation (HPCS). IEEE, 2014, pp. 129-136.
[8] D. S. Katz, S. Jha, M. Parashar, O. Rana, and J. Weissman, “Survey and analysis of production distributed computing infrastructures,” arXiv preprint arXiv:1208.2649, 2012.
[9] C. Sehgal, “Opportunistic eco-system & OSG-XD update,” Presentation at OSG Council Meeting, April 11, 2014, https://indico.fnal.gov/event/8389/contributions/107137/attachments/70027/83972/OSG-XD Report to Council 11apr2014.pdf
[10] R. Pordes, D. Petravick, B. Kramer, D. Olson, M. Livny, A. Roy, P Avery, K. Blackburn, T. Wenaus, F. Wurthwein " et al., “The open science grid,” in Proceedings of the Scientific Discovery through Advanced Computing Program (SciDAC) conference, Journal of Physics: Conference Series, vol. 78(1). IOP Publishing, 2007, p. 012057.
[11] Open Science Grid (OSG), http://www.opensciencegrid.org/(дата обращения: 23.11.2022)
[12] K. De, A. Klimentov, T. Wenaus, T. Maeno, and P Nilsson, “PanDA: A new paradigm for distributed computing in HEP through the lens of ATLAS and other experiments,” ATL-COM-SOFT-2014-027, Tech. Rep., 2014.
[13] G. Aad, E. Abat, J. Abdallah, A. Abdelalim, A. Abdesselam, O. Abdinov, B. Abi, M. Abolins, H. Abramowicz, E. Acerbi et al., “The ATLAS experiment at the CERN large hadron collider,” Journal of Instrumentation, vol. 3, no. 08, p. S08003, 2008.
[14] LHC Study Group, “The large hadron collider, conceptual design,” CERN/AC/95-05 (LHC) Geneva, Tech. Rep., 1995.
[15] D. Bonacorsi, T. Ferrari et al., “WLCG service challenges and tiered architecture in the LHC era,” in IFAE 2006. Springer, 2007, pp. 365-368...(33)


Работу высылаем на протяжении 30 минут после оплаты.



Подобные работы


©2025 Cервис помощи студентам в выполнении работ