📄Работа №196334

Тема: АУГМЕНТАЦИЯ МЕДИЦИНСКИХ ИЗОБРАЖЕНИЙ С ПОМОЩЬЮ ГЕНЕРАТИВНО-СОСТЯЗАТЕЛЬНЫХ НЕЙРОННЫХ СЕТЕЙ

📝
Тип работы Магистерская диссертация
📚
Предмет информатика
📄
Объем: 94 листов
📅
Год: 2025
👁️
Просмотров: 39
Не подходит эта работа?
Закажите новую по вашим требованиям
Узнать цену на написание
ℹ️ Настоящий учебно-методический информационный материал размещён в ознакомительных и исследовательских целях и представляет собой пример учебного исследования. Не является готовым научным трудом и требует самостоятельной переработки.

📋 Содержание

ВВЕДЕНИЕ 3
1 Обзор методов аугментации медицинских изображений 6
1.1 Проблема ограниченности и несбалансированности данных в медицинской
визуализации 6
1.2 Традиционные методы аугментации изображений 9
1.3 Глубокое обучение в анализе медицинских изображений 20
1.4 Генеративные модели для синтеза медицинских данных 24
1.5 Применение GAN для генерации медицинских изображений 35
2 Архитектура и математические основы генеративно-состязательных нейросетей 48
2.1 Математическая модель и функция потерь GAN 48
2.2 Архитектура генеративных состязательных сетей: GAN и DCGAN 56
2.3 Условные генеративные сети: cGAN, ACGAN, InfoGAN 63
3. Экспериментальная часть 69
3.1 Описание используемого набора данных и предварительная обработка данных 69
3.2 Архитектура построенных моделей GAN и cGAN 71
3.3 Методика оценки качества синтетических изображений 73
3.4 Результаты экспериментов и их сравнительный анализ 75
ЗАКЛЮЧЕНИЕ 83
СПИСОК ИСПОЛЬЗУЕМЫХ ИСТОЧНИКОВ И ЛИТЕРАТУРЫ 85

📖 Введение

Современное здравоохранение всё чаще обращается к методам искусственного интеллекта, в частности к глубокому обучению, для решения задач анализа и интерпретации медицинских изображений. Одной из ключевых проблем в этой области остаётся ограниченность и несбалансированность обучающих выборок. Доступ к большим объёмам размеченных данных в медицине затруднён в силу этических, правовых и организационных ограничений, а также высокой стоимости их получения и верификации. Особенно остро эта проблема проявляется в задачах диагностики заболеваний на основе рентгеновских, магнитно-резонансных (МРТ), компьютерно-томографических (КТ) и других видов визуализации.
Недостаточный объём данных негативно влияет на обучение глубоких нейронных сетей, вызывая переобучение и снижая обобщающую способность моделей. Более того, частое наличие дисбаланса между классами (например, значительно меньшее количество изображений с патологией по сравнению с нормой) дополнительно затрудняет обучение и приводит к смещённым результатам классификации. Таким образом, возникает необходимость в эффективных методах расширения обучающих выборок, способных повысить вариативность и репрезентативность медицинских данных.
Традиционные методы аугментации изображений включают в себя такие трансформации, как повороты, масштабирование, сдвиги, отражения, добавление шума и фильтрация. Несмотря на свою простоту и широкую применимость, эти подходы ограничены тем, что они лишь модифицируют уже существующие изображения, не создавая принципиально новых структур и вариаций. Это особенно критично в случае медицинских изображений, где важны анатомическая достоверность и сохранение паттернов заболеваний.
С развитием генеративных моделей, в частности генеративно-состязательных нейросетей (Generative Adversarial Networks, GAN) [1], появилась возможность синтезировать реалистичные изображения, приближённые по статистике и визуальным признакам к реальным данным. GAN-сети состоят из двух нейросетей - генератора и дискриминатора - которые обучаются в состязательном режиме: генератор учится создавать «фальшивые» изображения, а дискриминатор — отличать их от настоящих. В ходе такого обучения генератор совершенствуется до уровня, когда синтезируемые изображения становятся трудноотличимыми от подлинных. Это делает GAN мощным инструментом для создания новых образцов медицинских изображений с сохранением важных диагностических признаков.
Особый интерес в задачах аугментации представляют условные GAN (Conditional GAN, cGAN) [1], в которых генерация изображений осуществляется с учётом заданного класса или другого условия. Это позволяет более точно контролировать процесс генерации и направлять его на синтез изображений определённых патологий или анатомических структур.
Данная магистерская диссертация посвящена исследованию методов аугментации медицинских изображений с использованием генеративно-состязательных нейросетей, в частности, GAN и cGAN. Основное внимание уделяется решению задачи автоматической классификации пневмонии по рентгеновским снимкам органов грудной клетки.
В теоретической части работы проводится обзор существующих подходов к аугментации изображений, рассматриваются архитектуры генеративных моделей, принципы их работы, особенности обучения и возможные проблемы. Особое внимание уделено анализу применимости GAN к медицинским данным и описанию их преимуществ и ограничений в данной области.
В экспериментальной части исследования реализована генерация синтетических изображений грудной клетки с использованием базовой архитектуры GAN и условной GAN (cGAN) на основе открытого набора данных Chest X-Ray Images (Pneumonia) (платформа Kaggle). Далее на основе полученных синтетических данных и реальных изображений были обучены нейросетевые модели-классификаторы пневмонии. Производилось сравнение результатов классификации в двух вариантах: на чисто реальных данных и на смешанных (реальные + синтетические изображения), с использованием общепринятых метрик качества — Accuracy, Precision, Recall, F1-score.
Результаты эксперимента показали, что добавление синтетических изображений, полученных с помощью генеративных моделей, позволяет улучшить точность классификации и обобщающую способность модели. Это подтверждает эффективность и практическую значимость применения GAN для аугментации медицинских изображений.
Целью данной работы является исследование и экспериментальное подтверждение эффективности использования генеративно-состязательных нейросетей для аугментации медицинских изображений в задаче автоматической диагностики на примере рентгеновских снимков лёгких.
Для достижения поставленной цели в работе решаются следующие задачи:
1. проведение анализа существующих методов аугментации и генеративного синтеза изображений;
2. описание и реализация архитектур GAN и cGAN применительно к медицинским данным;
3. обучение моделей генераторов на рентгеновских снимках лёгких и получение синтетических изображений;
4. обучение и тестирование классификаторов на реальных и дополненных выборках;
5. проведение оценки эффективности предложенного подхода с использованием метрик качества;
6. формулировка выводов о применимости и перспективах использования GAN в задачах медицинской визуализации.

Возникли сложности?

Нужна качественная помощь преподавателя?

👨‍🎓 Помощь в написании

✅ Заключение

В ходе проведённого исследования была изучена и оценена эффективность применения генеративно-состязательных сетей (GAN) и условных генеративно - состязательных сетей (CGAN) для синтеза медицинских изображений на примере рентгеновских снимков лёгких. Основной целью работы было улучшение качества медицинских классификаторов посредством расширения обучающих выборок синтетическими изображениями.
Для достижения данной цели последовательно были решены следующие задачи:
1. Проведение анализа существующих методов аугментации и генеративного синтеза изображений
Анализ подтвердил перспективность подходов генеративно-состязательных моделей (GAN и cGAN), которые успешно используются для увеличения обучающих наборов данных и улучшения результатов моделей машинного обучения в области медицинской визуализации.
2. Описание и реализация архитектур GAN и cGAN применительно к медицинским данным
Были реализованы две модели: классическая GAN и её условная модификация CGAN. Для реализации обеих архитектур были выбраны современные подходы, обеспечивающие стабильность обучения и высокое качество синтезируемых данных.
3. Обучение моделей генераторов на рентгеновских снимках лёгких и получение синтетических изображений
Модели обучались на наборах изображений, относящихся к двум диагностическим классам: NORMAL и PNEUMONIA. Генерация синтетических образцов проводилась на различных этапах обучения с дальнейшей оценкой качества сгенерированных изображений.
4. Обучение и тестирование классификаторов на реальных и дополненных выборках
На реальных и синтетических наборах данных были обучены классификаторы, позволяющие определить диагностический класс. Тестирование классификаторов выявило значительные различия в эффективности в зависимости от типа использованной генеративной модели для создания синтетических данных.
5. Проведение оценки эффективности предложенного подхода с использованием метрик качества
Для оценки результатов был использован набор классификационных метрик (точность, полнота, Fl-мера). Модель cGAN значительно опередила GAN, достигнув точности классификации 96% против 75% у GAN, что подтверждает высокое качество генерируемых данных.
Подробный анализ матриц ошибок дополнительно подчеркнул преимущества CGAN:
• Для CGAN из 568 изображений класса NORMAL 483 были правильно классифицированы, лишь 85 ошибочно отнесены к классу PNEUMONIA; из 1076 изображений класса PNEUMONIA 1036 корректно классифицированы и только 40 пропущены. Это свидетельствует о высоком уровне безопасности модели.
• Напротив, GAN показала значительное количество ошибок второго рода (288 из 1076 изображений PNEUMONIA были ошибочно классифицированы как NORMAL), что критически опасно для медицинских задач и может привести к неправильной диагностике и задержке необходимого лечения.
6. Формулировка выводов о применимости и перспективах использования GAN в задачах медицинской визуализации
Полученные результаты однозначно демонстрируют преимущество условных генеративно-состязательных сетей (CGAN) над классическими GAN в задачах медицинской визуализации. cGANпозволяют генерировать синтетические изображения высокого качества, улучшающие точность и надёжность медицинских классификаторов.
Таким образом, предложенный подход с использованием cGAN является перспективным для решения задач, связанных с дефицитом обучающих данных в медицинской области, позволяя существенно снизить количество ошибок при диагностике и повысить общее качество оказания медицинских услуг.

Нужна своя уникальная работа?
Срочная разработка под ваши требования
Рассчитать стоимость
ИЛИ

📕 Список литературы

1. Generative Adversarial Nets / I. Goodfellow, J. Pouget-Abadie, M. Mirza [et al.] // Proceedings of the Neural Information Processing Systems (NIPS). - 2014. - P. 2672-2680.
2. A survey on deep learning in medical image analysis / G. Litjens, T. Kooi, B.E. Bejnordi [et al.] // Medical Image Analysis. - 2017. - Vol. 42. - P. 60-88.
3. GAN-based synthetic medical image augmentation for increased CNN performance in liver lesion classification / M. Frid-Adar, E. Klang, M. Amitai [et al.] // Neurocomputing. -
2018. - Vol. 321. - P. 321-331.
4. Shorten C. A survey on image data augmentation for deep learning / C. Shorten, T.M. Khoshgoftaar // Journal of Big Data. - 2019. - Vol. 6(1). - P. 1-48.
5. ChestX-ray8: Hospital-scale chest X-ray database and benchmarks on weakly- supervised classification and localization of common thorax diseases / X. Wang, Y. Peng, L. Lu [et al.] // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). - 2017. - P. 879-888.
6. A survey on deep learning in medical image analysis / G. Litjens, T. Kooi, B.E. Bejnordi [et al.] // Medical Image Analysis. - 2017. - Vol. 42. - P. 60-88.
7. A guide to deep learning in healthcare / A. Esteva, A. Robicquet, B. Ramsundar [et al.] // Nature Medicine. - 2019. - Vol. 25(1). - P. 24-29.
8. ChestX-ray8: Hospital-scale chest X-ray database and benchmarks on weakly- supervised classification and localization of common thorax diseases / X. Wang, Y. Peng, L. Lu [et al.] // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). - 2017. - P. 879-888.
9. CheXpert: A large chest radiograph dataset with uncertainty labels / J. Irvin, P. Rajpurkar, M. Ko [et al.] // Proceedings of the AAAI Conference on Artificial Intelligence. -
2019. - P. 1-9.
10. MIMIC-CXR: A large publicly available database of labeled chest radiographs / A. E. W. Johnson, T. J. Pollard, S. J. Berkowitz [et al.] // Scientific Data. - 2019. - Vol. 6. - Article 317.
11. The Lung Image Database Consortium (LIDC) and Image Database Resource Initiative (IDRI): A completed reference database of lung nodules on CT scans / S.G. Armato, G. McLennan, L. Bidaut [et al.] // Medical Physics. - 2011. - Vol. 38(2). - P. 915-931.
12. Identifying the best machine learning algorithms for brain tumor segmentation / S. Bakas, M. Reyes, A. Jakab [et al.] // Neuro-Oncology. - 2019. - Vol. 21(6). - P. 1-5.
13. PadChest: A large chest x-ray image dataset with multi-label annotated reports / A. Bustos, A. Pertusa, J.M. Salinas, M. de la Iglesia-Vaya // Medical Image Analysis. - 2020. - Vol. 66. - Article 101797.
14. Shorten C. A survey on Image Data Augmentation for Deep Learning / C. Shorten, T.M. Khoshgoftaar // Journal of Big Data. - 2019. - Vol. 6(1). - P. 1-48.
15. Haibo H. Learning from imbalanced data / H. Haibo, E. A. Garcia // IEEE Transactions on Knowledge and Data Engineering. - 2009. - Vol. 21(9). - P. 1263-1284.
16. Cohen I.G. HIPAA and protecting health information in the 21st century / I.G. Cohen, M.M. Mello // JAMA. - 2018. - Vol. 320(3). - P. 231-232.
17. Price W.N. Privacy in the age of medical big data / W.N. Price, I.G. Cohen // Nature Medicine. - 2019. - Vol. 25(1). - P. 37-43.
18. Shorten C. A survey on Image Data Augmentation for Deep Learning / C. Shorten, T.M. Khoshgoftaar // Journal of Big Data. - 2019. - Vol. 6(1). - P. 1-48.
19. Differential data augmentation techniques for medical imaging classification tasks / Z. Hussain, F. Gimenez, D. Yi, D. Rubin // IEEE Access. - 2017. - Vol. 5. - P. 1675-1695.
20. A survey on deep learning in medical image analysis / G. Litjens, T. Kooi, B. E. Bejnordi, A. A. A. Setio [et al.] // Medical Image Analysis. - 2017. - Vol. 42. - P. 60-88.
21. Prostate cancer detection using deep convolutional neural networks / S. Yoo, J. Hu, J. Daniel, A. M. McKinney [et al.] // Scientific Reports. - 2019. - Vol. 9. - Art. 19518. - P. 191-200.
22. Large scale deep learning for computer aided detection of mammographic lesions / T. Kooi, G. Litjens, B. van Ginneken, A. Gubern-Mdrida [et al.] // Medical Image Analysis. - 2017. - Vol. 35. - P. 206-214.
23. Taylor L. Improving deep learning with generic data augmentation / L. Taylor, G. Nitschke // 2018 IEEE symposium series on computational intelligence (SSCI). - IEEE, 2018. - С. 1542-1547.
24. Madabhushi A. Image analysis and machine learning in digital pathology: Challenges and opportunities / A. Madabhushi, G. Lee // Annual Review of Biomedical Engineering. -
2016. - Vol. 18. - P. 221-247.
25. Brain tumor segmentation and radiomics survival prediction: Contribution to the BRATS 2017 Challenge / F. Isensee, P. Kickingereder, W. Wick, M. Bendszus [et al.] // Lecture Notes in Computer Science. - 2018. - Vol. 10670. - P. 43-50.
26. A review of medical image data augmentation techniques for deep learning applications / P. Chlap, H. Min, N. Vandenberg, J. A. Dowling [et al.] // Journal of Medical Imaging and Radiation Oncology. - 2021. - Vol. 65. - P. 313-322.
27. Perez L. The effectiveness of data augmentation in image classification using deep learning / L. Perez, J. Wang - arXiv:1712.04621 - [Электронный ресурс], 2017. - 8 p. URL: https://arxiv.org/abs/1712.04621 (access date: 30.04.2025).
28. Willemink M.J. The evolution of image reconstruction for CT—from filtered back projection to artificial intelligence / M. J. Willemink, P. B. Noel // European Radiology. - 2019.
- Vol. 29(5). - P. 307-321.
29. Dropout: A simple way to prevent neural networks from overfitting / N. Srivastava, G. Hinton, A. Krizhevsky [et al.] // Journal of Machine Learning Research. - 2014. - Vol. 15(1).
- P.1929-1958.
30. Zhang Y. A survey on multi-task learning / Y. Zhang, Q. Yang // IEEE Transactions on Knowledge and Data Engineering. - 2022. - Vol. 34(12). - P. 5586-5609.
31. Nalepa J. Data augmentation for brain-tumor segmentation: A review / J. Nalepa, M. Marcinkiewicz, M. Kawulok // Frontiers in Computational Neuroscience. - 2019. - Vol. 13. - Art. 83.
32. A survey on deep learning in medical image analysis / G. Litjens, T. Kooi, B. E. Bejnordi [et al.] // Medical Image Analysis. - 2017. - Vol. 42. - P. 60-88.
33. Deep residual learning for image recognition / K. He, X. Zhang, S. Ren, J. Sun // Proc. IEEE Conf. on Computer Vision and Pattern Recognition (CVPR). - 2016. - P. 770-778.
34. Tan M. EfficientNet: Rethinking model scaling for convolutional neural networks / M. Tan, Q.V. Le // Proc. 36th Int. Conf, on Machine Learning (ICML). - 2019. - P. 6105-6114.
35. CheXNet: Radiologist-level pneumonia detection on chest X-rays with deep learning / P. Rajpurkar, J. Irvin, K. Zhu [et al.] - arXiv:1711.05225 - [Электронный ресурс], 2017. - 13 p. URL: https://arxiv.org/abs/1711.05225 (access date: 02.05.2025).
36. CheXpert: A large chest radiograph dataset with uncertainty labels and expert comparison / J. Irvin, P. Rajpurkar, M. Ko [et al.] // Proceedings of the AAAI Conference on Artificial Intelligence. - 2019. - Vol. 33 (AAAI-19). - P. 590-597.
37. Ronneberger O. U-Net: Convolutional networks for biomedical image segmentation / O. Ronneberger, P. Fischer, T. Brox // Proc. Int. Conf, on Medical Image Computing and Computer-Assisted Intervention (MICCAI). - 2015. - Vol. 9351. - P. 234-241.
38. The multimodal brain tumor image segmentation benchmark (BRATS) / B. H. Menze, A. Jakab, S. Bauer [et al.] // IEEE Transactions on Medical Imaging. - 2015. - Vol. 34(10). - P. 1993-2024.
39. Autoencoders for unsupervised anomaly segmentation in brain MR images: A comparative study / C. Baur, S. Denner, B. Wiestler [et al.] // Medical Image Analysis. - 2021. - Vol. 64. - Art. 102179.
40. Lung Image Database Consortium (LIDC) and Image Database Resource Initiative (IDRI): A completed reference database of lung nodules on CT scans / S.G. Armato III, G. McLennan, L. Bidaut [et al.] // Medical Physics. - 2011. - Vol. 38(2). - P. 915-931.
41. Faster R-CNN: Towards real-time object detection with region proposal networks / S. Ren, K. He, R. Girshick, J. Sun [et al.] // Advances in Neural Information Processing Systems. - 2015. - Vol. 28. - P. 91-99.
42. VoxelMorph: A learning framework for deformable medical image registration / G. Balakrishnan, A. Zhao, M.R. Sabuncu [et al.] // IEEE Transactions on Medical Imaging. - 2019. - Vol. 38(8). - P. 1788-1800.
43. Image Turing test and its applications on synthetic chest radiographs by using the progressive growing generative adversarial network / Jang M., Park H., Song M. [et al.] // Scientific Reports. - 2023. - Vol. 13. - Art. 2356.
44. Generative adversarial nets / I. Goodfellow, J. Pouget-Abadie, M. Mirza [et al.] // Advances in Neural Information Processing Systems. - 2014. - Vol. 27. - P. 2672-2680.
45. Kingma D.P. Auto-encoding variational Bayes / D.P. Kingma, M. Welling - arXiv:1312.6114 - [Электронный ресурс], 2014. - P. 14. URL: https://arxiv.org/abs/1312.6114 (access date: 04.05.2025).
46. Ho J. Denoising diffusion probabilistic models / J. Ho, A. Jain, P. Abbeel // Advances in Neural Information Processing Systems. - 2020. - Vol. 33. - P. 6840-6851.
47. ChestX-ray8: Hospital-scale chest X-ray database and benchmarks on weakly- supervised classification and localization of common thorax diseases / Wang X., Peng Y., Lu L. [et al.] // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). - 2017. - P. 2097-2106.
48. CheXpert: A large chest radiograph dataset with uncertainty labels and expert comparison / J. Irvin, P. Rajpurkar, M. Ko [et al.] // Proceedings of the AAAI Conference on Artificial Intelligence. - 2019. - P. 590-597.
49. Sundaram S. GAN-based data augmentation for chest X-ray classification / S.
Sundaram, N. Hulkund - arXiv:2107.02970 - [Электронный ресурс], 2021. - URL:
https://arxiv.org/abs/2107.02970 (access date: 06.05.2025).
50. Exploring variational autoencoders for medical image generation: A comprehensive study / K. Rais, S. Akcav, N. Thomos, M.Y. Haouam - arXiv:2411.07348 - [Электронный ресурс], 2024. - P. 24. URL: https://arxiv.org/abs/2411.07348 (access date: 06.05.2025).
51. A 3D lung lesion variational autoencoder / Y. Li, J. Zhao, Z. Yu [et al.] // Cell Reports Methods. - 2024. - Vol. 4(2). - Art. 100695
52. Diffusion models in medical imaging: A comprehensive survey / A. Kazerouni, M. Imani, G. Zaharchuk [et al.] // Medical Image Analysis. - 2023. - Vol. 88. - Art. 102846.
53. Denoising diffusion probabilistic models for 3D medical image generation / Khader F., Lee H., Song M. [et al.] // Scientific Reports. - 2023. - Vol. 13. - Art. 7303.
54. Diffusion-based approaches in medical image generation and analysis / A.A.N. Nafi,
S. Akcav, K. Rais [et al.] - arXiv:2412.16860 - [Электронный ресурс], 2024. - URL: https://arxiv.org/abs/2412.16860 (access date: 06.05.2025).
55. Mirza M. Conditional generative adversarial nets / M. Mirza, S. Osindero - arXiv:1411.1784 - [Электронный ресурс], 2014. - P. 7. URL: https://arxiv.org/abs/1411.1784 (access date: 07.05.2025).
56. Ying L. A partial convolution generative adversarial network for lesion synthesis and enhanced liver tumor segmentation / L. Ying, Y. Fei, Y. Yidong // Journal of applied clinical medical physics. - 2023. - Vol. 24. - №. 4. - P. 13927.
57. Ng M., Hargreaves C. Generative Adversarial Networks for the Synthesis of Chest XRay Images / M. Ng, C. Hargreaves // Engineering Proceedings. - 2023. - Vol. 31. - P. 84.
58. Radford A. Unsupervised representation learning with deep convolutional generative adversarial networks / A. Radford, L. Metz, S. Chintala - arXiv:1511.06434 - [Электронный ресурс], 2015. - URL: https://arxiv.org/abs/1511.06434 (access date: 09.05.2025).
59. Unpaired image-to-image translation using cycle-consistent GANs / Zhu J.Y., Park
T. , Isola P., Efros A.A. // Proc. IEEE Int. Conf, on Computer Vision (ICCV). - 2017. - P. 2223-2232.
60. Karras T. A style-based generator architecture for generative adversarial networks / T. Karras, S. Laine, T. Aila [et al.] // Proc. IEEE/CVF Conf, on Computer Vision and Pattern Recognition (CVPR). - 2019. - P. 4401-4410.
61. GAN-based synthetic medical image augmentation for increased CNN performance in liver lesion classification / M. Frid-Adar, E. Klang, M. Amitai [et al.] // Neurocomputing. - 2018. - Vol. 321. - P. 321-331.
62. Yi X. Generative adversarial network in medical imaging: A review/ X. Yi, E. Walia, P. Babyn // Medical Image Analysis. - 2019. - Vol. 58. - Art. 101552.
63. Deep MR to CT synthesis using unpaired data / J.M. Wolterink, A.M. Dinkla, M.H.F. Savenije [et al.] // Simulation and Synthesis in Medical Imaging (SASHIMI), LNCS. - 2017. - Vol. 10557. - P. 14-23.
64. CovidGAN: Data augmentation using auxiliary classifier GAN for improved COVID- 19 detection / Waheed A., Goyal M., Gupta D. [et al.] // IEEE Access. - 2020. - Vol. 8. - P. 91916-91923.
65. Sarkar R. Generation of synthetic chest X-ray images and detection of COVID-19: A deep learning based approach / R. Sarkar, R. Saha, D. Roy // Diagnostics. - 2021. - Vol. 11(5). - Art. 895.
66. Synthesizing realistic high-resolution retina images via style-based GAN and their applications / Kim M., Lee H., Song J. [et al.] // Scientific Reports. - 2022. - Vol. 12. - Art. 17307.
67. Selective synthetic augmentation with HistoGAN for improved histopathology image classification / Xue Y., Zhang R., Sun Y. [et al.] // Medical Image Analysis. - 2021. - Vol. 67. - Art. 101816.
68. Tavakkoli A. A conditional GAN for producing angiography images from retinal fundus photographs / A. Tavakkoli, J. Xu, J. Zhao, J. Li // Scientific Reports. - 2020. - Vol. 10. - Art. 21580.
69. Николенко С. И. Глубокое обучение. Погружение в мир нейронных сетей / С. И. Николенко, А. А. Кадурин, Е. В. Архангельская. - Санкт-Петербург: Питер, 2018. - 481 с.
70. Arjovsky M. Wasserstein generative adversarial networks / M. Arjovsky, S. Chintala, L. Bottou // Proceedings of the 34th International Conference on Machine Learning (ICML). -
2017. - Vol. 70. - P. 214-223.
71. Improved training of Wasserstein GANs / I. Gulrajani, F. Ahmed, M. Arjovsky [et al.] // Advances in Neural Information Processing Systems. - 2017. - Vol. 30. - P. 5767-5777.
72. Least squares generative adversarial networks / X. Mao, Q. Li, H. Xie, [et al.] // Proceedings of the IEEE International Conference on Computer Vision (ICCV). - 2017. - P. 2794-2802.
73. Lim J. Geometric GAN / J. Lim, J. Ye - arXiv:1705.02894 - [Электронный ресурс], 2017. - URL: https://arxiv.org/abs/1705.02894 (access date: 10.05.2025).
74. Improved techniques for training GANs / T. Salimans, I. Goodfellow, W. Zaremba [et al.] // Advances in Neural Information Processing Systems - 2016. - Vol. 29. - P. 2234-2242.

🛒 Оформить заказ

Работу высылаем в течении 5 минут после оплаты.

©2026 Cервис помощи студентам в выполнении работ