Тип работы:
Предмет:
Язык работы:


Правовое регулирование военизированного искусственного интеллекта

Работа №165524

Тип работы

Бакалаврская работа

Предмет

международные отношения

Объем работы59
Год сдачи2022
Стоимость4360 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
3
Не подходит работа?

Узнай цену на написание


ВВЕДЕНИЕ 3
1. Военизированный искусственный интеллект с правовой и научной точек
зрения 6
2. Проблемы и перспективы международного правового регулирования военизированного искусственного интеллекта 24
ЗАКЛЮЧЕНИЕ 44
СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 49

В настоящее время принято считать, что искусственный интеллект — это универсальная «таблетка»; что эта технология открывает человеку множество прежде недоступных дверей, значительно повышая качество жизни и оптимизируя многие повседневные и рабочие процессы. Искусственный интеллект внедряют в медицину, искусство, бизнес и в обыкновенную, бытовую жизнь — с трудом представляется современный человек без тесной вовлечённости в интернет вещей, к примеру.
Область применения искусственного интеллекта практически безгранична, человечество упорно движется по пути автоматизации всех витальных процессов в стремлении создать для себя некого помощника, второй, но механический мозг, который бы мог выполнять крупные многоступенчатые задачи без потери эффективности — в стремлении создать такую среду, в которой не пришлось бы тратить ресурсы на обеспечение базовых вещей и потребностей (например, потребности в безопасности). И если одна часть человечества видит реализацию этой идеи в модернизации существующих систем, оптимизирующих быт и хозяйство, то другая же — обыкновенно наделённая политической властью и силой или так или иначе коррелирующая с оборонной системой государства — естественным образом обращается к другим возможностям ИИ, которые могли бы способствовать укреплению защитной архитектуры государства, и в таком случае искусственный интеллект зачастую подвергается милитаризации и приобретает дополнительное обозначение — «военизированный».
Идея применения искусственного интеллекта в системе обороны не нова.
Она варьируется в своих проявлениях — от беспилотных летательных аппаратов до системы видеонаблюдения с распознаванием лиц. Некоторые государства успели не только выстроить архитектуру защиты из систем искусственного интеллекта, но и проверили её на практике — например, Израиль и его знаменитый «Железный купол», находящийся на вооружении с 2005 года и в непосредственной эксплуатации — с 2011.
На данный момент, в 2022 году, военизированный искусственный интеллект видится практически идеальным решением не только для ведения войны и военных операций в их классическом смысле, но также и для ведения войны информационной. Можно с уверенностью сказать, что конфликты практически завершили переход в свою новую форму. Армия в общепринятом смысле всё ещё остаётся основой для государства, однако вектор смещается, и на первый план выходит искусственный интеллект как эффективный, но в то же время более «гуманный» способ ведения войны.
Однако это лишь в теории беспилотные летательные аппараты ведут бои исключительно друг с другом, высокоточными ударами уничтожая только лишь вражеское наземное или какое бы то ни было иное вооружение. На практике оказывается, что военизированный искусственный интеллект — вещь значительной степени деструктивности, и даже если вести войну, используя лишь ИИ, потерь (как среди военных, так и среди гражданских лиц) всё равно не избежать. И здесь встаёт множество вопросов, касающихся необходимости правового регулирования военизированного ИИ и правомерности его применения в военных конфликтах с точки зрения международного гуманитарного права, а также того, на ком будет лежать ответственность за так называемые «civilian casualties». Кроме того, интерес представляет также и то, как именно искусственный интеллект принимает решения в условиях боя и что делать с осечками. И в том случае, если искусственный интеллект будет в принципе способен на принятие решений в условиях военных действий, то переходит ли он из категории оружия в категорию комбатантов?
На сегодняшний день вопросы применения искусственного интеллекта и автономных систем вооружений нормами международного гуманитарного права непосредственно не урегулированы, и именно поэтому мы считаем важным и актуальным написать работу по данной теме.
Объект исследования — применение военизированного искусственного интеллекта в международных отношениях.
Предмет исследования — правовое регулирование военизированного искусственного интеллекта с точки зрения международного гуманитарного права.
Целью данной бакалаврской работы мы видим необходимость проанализировать проблемы применения военизированного искусственного интеллекта с точки зрения международного гуманитарного права и оценить перспективы правового регулирования его использования в будущем.
Для достижения цели исследования планируется выполнить следующие задачи:
• проанализировать понятие «военизированный искусственный интеллект» с точки зрения международного права;
• проанализировать проблемы применения военизированного искусственного интеллекта с точки зрения действующего международного гуманитарного права;
• дать оценку возможным перспективам международного правового регулирования военизированного искусственного интеллекта.
Степень научной разработанности: данная тема является актуальной, что могло бы предполагать высокую степень изученности и многообразие научного материала, однако также существует явный дефицит правовых первоисточников, так как мировое сообщество всё ещё находится в стадии их разработки и согласования. Тем не менее, научных статей, международных исследований и прогнозов достаточно, чтобы исследование данной темы протекало без излишних трудностей.


Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В данной выпускной квалификационной работе был проведен подробный анализ военизированного искусственного интеллекта, а также проблем и перспектив его международного правового регулирования. В результате проведённого исследования были сделаны следующие выводы.
Военизированный искусственный интеллект — это в основном частично автономные системы или комплексы вооружений, обладающие функцией самостоятельного поиска цели, выявления, наведения и её поражения и действующие обыкновенно под контролем человека-оператора и при строго определённых исходных данных, к коим относятся, например, численность военных и гражданских лиц или объектов в непосредственной близости от установок ВИИ.
Данное определение подразумевает следующие виды вооружений:
• дроны (устройства, управляемые людьми по сценарию «совместного управления»; спектр применения варьируется от функций разведки и мониторинга территории, до нанесения непосредственного физического ущерба живой силе противника);
• беспилотные летательные аппараты (устройства, работающие в большей степени автономно, выполняющие функции мониторинга территории, анализа, сбора данных, обнаружения и поражения цели; один из самых известных представителей — израильский БПЛА «Гарпия», который запрограммирован на полет в определенный район, отслеживание конкретных целей, а затем — их уничтожение с помощью фугасной боеголовки, носящую название «Fire and Forget»).
• системы противоракетной и противовоздушной обороны (ПВО) (обыкновенно, состоят из радиолокационных центров и систем управления; относятся к категории частично автономного ВИИ, так как управление осуществляется по сценарию «диспетчерского управления», о котором мы скажем далее; самые известные частично автоматизированные системы ПВО — «Железный купол» (Израиль), HQ-9 (КНР), «Патриот» (США), франко-итальянский комплекс SAMP-T и «Триумф» (Российская Федерация)).
• смертоносные автоматизированные системы (САС) (по аналогии с «камикадзе», тождественны по своей сути беспилотным летательным аппаратам, однако запрограммированы на обнаружение и уничтожение цели, которой в основном является живая сила противника);
• беспилотные летательные аппараты-камикадзе (тождественны простым БПЛА за тем исключением, что выполняют одну лишь функцию: БПЛА-камикадзе запрограммированы на самоуничтожение при достижении своей цели — например, объекта военной инфраструктуры противника);
• барражирующий боеприпас (тип БПЛА с интегрированной боевой частью; характеризуется способностью долгое время находиться в режиме ожидания в воздухе в зоне цели и поражать её после команды оператора либо же самовольно, если таковое предусмотрено алгоритмом; иногда используется в качестве понятия, синонимичного БПЛА-камикадзе).
Изучив основные формы военизированного искусственного интеллекта, мы пришли к выводу, что главная особенность большинства таких систем — это заложенная в них управляемость, то есть возможность человека-оператора вмешаться в процесс принятия решения о поражении цели искусственным интеллектом и проконтролировать запуск боевого снаряда. Более того, каждая система военизированного искусственного интеллекта контролируется на различном уровне, по различным сценариям. МККК определили следующие сценарии:
1. Сценарий «прямого (существенного) управления». Данный сценарий требует перманентного контроля со стороны человека-оператора для непосредственного управления системой и её функциями, что делает её полностью неавтономной.
2. Сценарий «совместного (адекватного) управления». В данном сценарии человек-оператор напрямую выполняет лишь какой-то ограниченный спектр функций, а ИИ, в свою очередь, выполняет другие функции именно под наблюдением оператора. Такой сценарий реализуется, например, при запуске дронов: пока оператор фокусируется на управлении критически важными функциями и задачами, искусственный интеллект сосредотачивается на реализации функции полёта и навигации.
3. Сценарий «диспетчерского (эффективного) управления». Данная стратегия управления предусматривает следующее: роботизированная система выполняет задачи автономно, в то время как человек-оператор осуществляет наблюдение и может вводить в эксплуатацию какие-либо инструкции и/или вмешиваться и возвращать контроль над управлением, если это необходимо. По этому сценарию контролируется израильская система ПВО «Железный купол».
Проанализировав то, как работает военизированный искусственный интеллекта на практике, как он обучается и как реализуется его автономность, мы можем сказать, что военизированный интеллект имеет как достоинства, так и существенные недостатки. Учитывая общее несовершенство механизмов и машин, их естественную склонность к сбоям и ошибкам, отсутствие понимания понятий «человечности», «морали», «этики», «милосердия», стоит говорить о том, что недостатков гораздо больше, нежели достоинств.
Развитие военизированного искусственного интеллекта также влечёт за собой увеличение скорости военных действий и укрупнение их масштабов — как когда-то в свою очередь это сделало ядерное оружие. В связи с этим, военизированный искусственный интеллект в перспективе породит огромный разрыв в военной мощи государств, который и на данный момент уже достаточно силён. К тому же, искусственный интеллект — это высокая технология, а значит, в некотором смысле «элитная», что только лишь усугубит стремление государств заполучить его и развить. Уже сейчас прослеживается определённая гонка вооружений в этой области, хотя необходимо сосредоточиться на глобальном правовом регулировании, чтобы не повторить опыт прошлых военных конфликтов.
Учитывая военный потенциал искусственного интеллекта, а также угрозы, которые связаны с комбинированием ядерного оружия и военизированного искусственного интеллекта, следует принять за непреложное правило следующую мысль: человек никогда не должен ослаблять уровень своего личного контроля над ядерным оружием. Совмещение военизированного искусственного интеллекта, который ещё даже не вошёл в пик своего развития и мощности, чьи решения не обладают абсолютной прозрачностью, с оружием, применение которого требует огромного количества расчётов и условностей, должно быть заблокировано международным гуманитарным правом.
Что касается ответственности, то на начальном этапе оформления правового регулирования ВИИ важно обозначить сам принцип её неизбежности за применение такого вооружения независимо от того, чем вызваны неблагоприятные последствия — решением человеческого командования или сбоем в системе, а уже определение ответственного лица оставить в ведении государства.
Также в силу того, что государства на данный момент не выработали никакого иного плана будущих действий по регулированию военизированного искусственного интеллекта и автономных систем вооружения, основным правовым принципом для такого вооружения может стать «оговорка Мартенса». Она есть универсальное положение международного гуманитарного права для случаев, которые не могут быть урегулированы позитивными нормами ведения войны. И в таком случае следует обеспечивать защиту гражданских лиц и комбатантов в соответствии с помощью основных начал международного права, которые следуют из принципов гуманности, требований общественного сознания и международных обычаев.
В заключение скажем, что системе международного и международного гуманитарного права требуется трансформация с учётом новых появляющихся вызовов и угроз, и также очевидно, что подход к этой трансформации должен быть комплексным. Помимо этого, необходимо стремиться к балансу сил в области новейшего вооружения, чтобы не повторить сценарии международных конфликтов прошлого века.



1. Шевелёва Н. А. Право и информация: вопросы теории и практики : сборник материалов международной научно-практической конференции / Н. А. Шевелёва, Н. В. Дунаева, В. Б. Наумов : Санкт-Петербургский государственный университет, Президентская библиотека им. Ельцина. — 2019. — С. 213.
2. Азизова, А. И. Правовые проблемы регулирования искусственного интеллекта / А. И. Азизова // Проблемы правового регулирования в трудах молодых ученых : сборник статей. — 2021. — С. 6-10.
3. Васильев, А. А. Термин «искусственный интеллект» в российском праве: доктринальный анализ / А. А. Васильев, Ш. Дариуш, М. X. Матаева // Юрислингвистика. — 2018. — №. 7-8. — С. 35-44.
4. Залоило, М. В. Искусственный интеллект в праве : научно-практическое пособие / М. В. Залоило, ред. Пашенцев Д. А. — Москва : Инфотропик Медиа. — 2021. — 132 с.
5. Кашкин, С. Ю. Искусственный интеллект, робототехника и защита прав человека в Европейском союзе / С. Ю. Кашкин, А. В. Покровский // Вестник Университета имени О. Е. Кутафина. — 2019. — №. 4 (56). — С. 64-90.
6. Лаптев, В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу / В. А. Лаптев // Право. Журнал Высшей школы экономики. — № 2. — 2019. — С. 79-102.
7. Морхат, П. М. Искусственный интеллект: правовой взгляд: научная монография: [монография] / П. М. Морхат ; научные рецензенты Понкин И. В., Забейворота А. И. ; РОО «Институт государственно-конфессиональных отношений и права». — М.: Буки Веди, 2017. — 257 С. — ISBN 978-5-4465-1774-9.
8. Ужов, Ф. В. Искусственный интеллект как субъект права / Ф. В. Ужов // Пробелы в российском законодательстве. Юридический журнал. — 2017.
— №. 3. — С. 357-360.
9. Sisson, M. The Militarization of Artificial Intelligence / M. Sisson // United Nations. — 2020.
10. Acemoglu, D. Harms of AI / D. Acemoglu // National Bureau of Economic Research. — 2021. — №. w29247.
11. Maas, M. Innovation-Proof Global Governance for Military Artificial Intelligence? / M. Maas // Journal of International Humanitarian Legal Studies.
— 2019. — T. 10. — №. 1. — C. 129-157.
12. Maas, M. How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons / M. Maas // Contemporary Security Policy. — 2019. — T. 40. — №. 3. — C. 285-311.
13. Dragomir, F. L. Artificial intelligence techniques cybersecurity / F. L. Dragomir // Strategies XXI : материалы международной научной конференции / National Defence University. — 2017. — T. 3. — C. 147.
14. Etzioni, A. Should artificial intelligence be regulated? / A. Etzioni, O. Etzioni // Issues in Science and Technology. — 2017.
15. Autonomy, artificial intelligence and robotics: Technical aspects of human control // Международный комитет Красного Креста : официальный сайт. — 2019. — URL:https://www.icrc.org/en/document/autonomy-artificial-intelligence-and-robotics-technical-aspects-human-control(дата обращения: 28.04.2022).
16. Artificial intelligence and machine learning in armed conflict: A human-
centred approach // Международный комитет Красного Креста : официальный сайт. — 2019. — URL:
https://www.icrc.org/en/document/artificial-intelligence-and-machine-learning-armed-conflict-human-centred-approach(дата обращения: 28.04.2022).
17. Автономные системы вооружения: вопросы и ответы // Международный комитет Красного Креста : официальный сайт. — 2014. — URL: https://www.icrc.org/ru/document/avtonomnye-sistemy-vooruzheniya-voprosy-i-otvety-0(дата обращения: 3.05.2022).
18. Radin, S. Expert views on the frontiers of artificial intelligence and conflict /
S. Radin // Международный комитет Красного Креста : официальный сайт. — 2019. — URL: https://blogs.icrc.org/law-and-
policy/2019/03/19/expert-views-frontiers-artificial-intelligence-conflict/(дата обращения: 9.05.2022).
19. Digitalization of conflict joint initiative: Humanitarian impact and legal protection // Международный комитет Красного Креста : официальный сайт. — 2020. — URL:https://www.icrc.org/en/document/digitalization-conflict-joint-initiative(дата обращения: 9.05.2022).
20. Button, R. W. Artificial Intelligence and the Military / The RAND BLOG. —
2017.
21. Hoadley D. S., Lucas N. J. Artificial intelligence and national security. —
2018.
22. Haney B. S. Applied Artificial Intelligence in Modern Warfare and National Security Policy // Hastings Sci. & Tech. LJ. — 2020. — T. 11. — C. 61.
23. Валерий Б. Концептуальные направления правового обеспечения внедрения искусственного интеллекта / Валерий Б., Маркевич Д., Марина С. // Наука и инновации. — 2019. — №. 11 (201). — С. 58-63.
24. Бурукина, О. А. Теоретико-правовые проблемы применения принципов МГП в условиях автономизации вооружений / О. А. Бурукина // Вопросы российского и международного права. — 2020. — Т. 10. — №. 5-1. — С. 92-103.
25. Шибаева, К. В. Три закона робототехники Айзека Азимова: к вопросу гуманности применения смертоносных автономных систем вооружения на войне / К. В. Шибаева, Л. Н. Холова // Теология. Философия. Право. — 2018. — №. 4 (8). — С. 28-41.
26. Петрова, Д. А. Смертоносные автономные системы: этические,
юридические, политические проблемы и перспективы их решения / Д. А. Петрова, Я. В. Гайворонская, А. Ю. Мамычев // Территория новых возможностей. Вестник Владивостокского государственного
университета экономики и сервиса. — 2019. — Т. 11. — №. 4.
27. Скуратова, А. Ю. Смертоносные автономные системы вооружений: проблемы международно-правового регулирования / А. Ю. Скуратова, Е. Е. Королькова // Российский юридический журнал. — 2019. — №. 1. — С. 22-30.
28. Knight, J. Safety-critical Systems: Challenges and Directions / J. Knight // the 24th International Conference on Software Engineering : материалы международной научной конференции. — 2002.
29. Gigova, R. Who Vladimir Putin Thinks Will Rule the World / R. Gigova //
CNN : официальный сайт. — 2017.
URL:https://edition.cnn.com/2017/09/01/world/putin-artificial-intelligence-will-rule-world/index.html(дата обращения: 3.05.2022).
30. Федуненко, Е. Самоуправляемый дрон впервые убил человека / Е.
Федуденко // Коммерсантъ : [сайт]. — 2021. — URL:
https://www.kommersant.ru/doc/4837323(дата обращения: 7.05.2022).
31. Perry, L. AI Alignment Podcast: On Lethal Autonomous Weapons with Paul Scharre : подкаст / L. Perry. // Future of Life Institute. — 2020. — URL: https://futureoflife.org/2020/03/16/on-lethal-autonomous-weapons-with-paul-scharre/?cn-reloaded=1(дата обращения: 5.05.2022).
32. Красилова, E. «Они» уже на подходе. В Европе могут появиться «электронные лица» / Е. Красилова // РАДИО SPUTNIK : [сайт]. — 2016. — 26 ИЮНЯ. — URL:https://radiosputnik.ria.ru/20160626/1451097825.html(дата обращения: 5.05.2022).
33. A European approach to Artificial Intelligence // European Commission :
Официальный Сайт. — 2021. — URL: https://digital-
strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence(дата обращения: 29.04.2022).
34. Communication from the Commission: Artificial intelligence for Europe // European Commission : официальный сайт. — 2021. — URL:https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2018%3A237%3AFIN(дата обращения: 29.04.2022).
35. Coordinated Plan on Artificial Intelligence 2021 Review // European Commission : официальный сайт. — 2021. — URL:https://digital-strategy.ec.europa.eu/en/library/coordinated-plan-artificial-intelligence-2021-review(дата обращения: 29.04.2022).
36. Proposal for a Regulation laying down harmonized rules on artificial intelligence // European Commission : официальный сайт. — 2021. — URL: https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence(дата обращения: 29.04.2022).
37. Losing Humanity // Human Rights Watch : официальный сайт. — 2012. —
URL: https://www.hrw.Org/report/2012/11/19/losing-humanity/case-against-
killer-robots(дата обращения: 6.05.2022).
38. Boulanin, V. Responsible Military Use of Artificial Intelligence: Can the
European Union Lead the Way in Developing Best Practice? / V. Boulanin // STOCKHOLM INTERNATIONAL PEACE RESEARCH INSTITUTE. —
2020. - URL: https://www.sipri.org/publications/2020/other-
publications/responsible-military-use-artificial-intelligence-can-european-union-lead-way-developing-best(дата обращения: 15.05.2022).
39. Российская Федерация. Национальная стратегия развития искусственного интеллекта на период до 2030 года : Национальная стратегия [утверждена указом Президента РФ N 490 10 октября 2019 года] // Еарант. - 2019. - URL:https://base.garant.ru/72838946/(дата обращения: 4.05.2022).
40. Коулз, Т. Искусственный интеллект в деталях / Т. Коулз // Wondows IT
Pro/RE. — 2018. — № 12. — URL:
https://www.osp.ru/winitpro/2018/12/13054722(дата обращения: 3.05.2022).
41. Проскурина, Д. С. Смертоносные автономные системы вооружений:
будущее военной индустрии или угроза падения международного гуманитарного права? / Д. С. Проскурина, М. И. Хохлова, Н. И. Сафин // Евразийская адвокатура. — 2020. — №6 (49). — URL:
https://cyberleninka.ru/article/n/smertonosnye-avtonomnye-sistemy-vooruzheniy-buduschee-voennoy-industrii-ili-ugroza-padeniya-mezhdunarodnogo-gumanitarnogo-prava(дата обращения: 14.05.2022).
42. Малышкин, А. В. Интегрирование искусственного интеллекта в общественную жизнь: некоторые этические и правовые проблемы / А. В. Малышкин // Вестник Санкт-Петербургского университета. Право. —
2019. — Т. 10. — №. 3. — С. 444-460.
43. Васильев, А. А. Место искусственного интеллекта среди элементов состава правоотношения / А. А. Васильев, Ю. В. Печатнова // Цифровое право. — 2020. — Т. 1. — №. 4. — С. 74-83.
44. Ильин, Д. Manta Ray: в США инициировали разработку беспилотных
субмарин / Д. Ильин // Наука и техника. — 2020. — 18 марта. URL: https://naukatehnika.com/manta-ray-bespilotnaya-submarina.html (дата
обращения: 18.05.2022).
45. Птичкин, С. Гроза морей / С. Птичкин // Российская газета : [сайт]. —
2021. — 22 авг. — № 190 (8541). — URL:https://rg.ru/2021/08/22/v-rossii-sozdana-podvodnaia-lodka-robot-s-iadernym-dvigatelem.html (дата
обращения: 17.05.2022).
46. Конвенция о запрещении или ограничении применения конкретных
видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие : международный договор [принят резолюцией 3093 Генеральной Ассамблеи ООН 10 октября 1980 года]. — Международный комитет Красного Креста : официальный сайт. — URL:
https: //www. icrc.org/ru/doc/resources/documents/misc/treaties-ccw-101080.htm(дата обращения: 15.05.2022).
47. Ястребов, О. А. Правосубъектность электронного лица: теоретике-
методологические подходы / О. А. Ястребов // Труды Института государства и права РАН. — 2018. — №2. — URL:
https://cyberleninka.ru/article/n/pravosubektnost-elektronnogo-litsa-teoretiko-metodologicheskie-podhody(дата обращения: 21.05.2022).
48. Wakefield, J. MEPs vote on robots' legal status — and if a kill switch is required / J. Wakefield // BBC.NEWS : официальный сайт. — 2017. — URL:https://www.bbc.com/news/technology-38583360(дата обращения: 10.05.2022).
49. Atabekov, A. Legal status of artificial intelligence across countries: Legislation on the move / A. Atabekov, O. Yastrebov. // European Research Studies Journal. — № 21. — 2018. — C. 773-782.
50. Sokol, S. Explained: Why Israel's Iron Dome Won't Help Ukraine Against
Russia / S. Sokol // HAARETZ. — 2022. — URL:
https://www.haaretz.com/israel-news/explained-why-israel-s-iron-dome-won-t-really-help-ukraine-against-russia-1.10690475(дата обращения: 17.05.2022).
51. Вальтер Я. Тяжелые вооружения для Украины: какие страны что поставляют / Я. Вальтер // Deutsche Welle. — 2022. — URL: https: //www.dw. com/ru/tj azhelye-vooruzhenij a-dlj a-ukrainy-kakie- strany-chto-postavljajut/a-61586186(дата обращения: 17.05.2022).
52. Хилле, П. Javelin, Bayraktar и GROM: кто и какое оружие поставляет сейчас Украине / П. Хилле // Deutsche Welle. — 2022. — URL: https: //www.dw. com/ru/j avelin-bayraktar-i- grom-kto-i-kakoe-oruzhie-postavljaet-sejchas-ukraine/a-60772879(дата обращения: 17.05.2022).
53. Корякин, О. Израильский «Железный купол» сбил собственный беспилотник / О. Корякин // Специальный проект «Русское оружие» : [сайт]. — 2021. — URL:https: //rg.ru/2021/05/26/izrailskij -zheleznyj -kupol-sbil-sobstvennyj-bespilotnik.html(дата обращения: 5.05.2022).
54. Trevithick, J. Israel Admits Iron Dome Battery Shot Down One Of Its Own
Drones During Gaza Fighting / J. Trevithick // The DRIVE. — 2021. — URL: https://www.thedrive.com/the-war-zone/40769/israel-admits-iron-dome-battery-shot-down-one-of-its-own-drones-during-gaza-fighting (дата
обращения: 5.05.2022).
55. Scharre, P. Army of none: Autonomous weapons and the future of war / P. Scharre. — WW Norton & Company, 2018. — 448 c.
56. Ganascia, J. G. Artificial Intelligence: Between myth and reality / J. G. Ganascia // Artificial Intelligence. The promises and the threats. — июль- сентябрь 2018. — 2018. — C. 72.
57. Maxwell, P. Artificial Intelligence is the Future of Warfare (Just Not in the Way You Think) / P. Maxwell // Modern War Institute at West Point. — 2020.
— T. 20. — URL:https://mwi.usma.edu/artificial-intelligence-future-warfare-just-not-way-think/(дата обращения: 4.05.2022).
58. Lawless, W. F. Artificial intelligence, Autonomy, and Human-Machine Teams / W. F. Lawless, R. Mittu, D. Sofge, L. Hiatt // Interdependence, Context, and Explainable AI. AI Magazine. — 2019. — 40(3). — C. 5-13. — URL: https://ojs.aaai.org/index.php/aimagazine/article/view/2866(дата обращения: 11.05.2022).
59. Allen, G. Artificial intelligence and national security / G. Allen, T. Chan // Cambridge Belfer Center for Science and International Affairs. — 2017.
60. Заключительный доклад Рруппы экспертов по Ливии // The United
Nations : [официальный сайт]. — 2020. — URL:
http://undocs.org/ru/S/2021/229(дата обращения: 7.05.2022).
61. Законность угрозы ядерным оружием или его применения : консультативное заключение МС ООН 1996 года // The United Nations : официальный сайт. — URL:https://undocs.org/en/ST/LEG/SER.F/1/Add.1(дата обращения: 19.05.2022).
62. Конвенция о законах и обычаях сухопутной войны 1907 года :
международный договор // Международный комитет Красного Креста : официальный сайт. — URL:
https://www.icrc.org/ru/doc/resources/documents/misc/hague-convention-iv-181007.htm(дата обращения: 16.05.2022).
63. Тайсхерст, Р. Оговорка Мартенса и право вооруженных конфликтов / Р. Тайсхерст // Journal, Autumn. — 1996. — Т. 2. — №. 1. — С. 107-118.
64. Шестак, В. А. Современные потребности правового обеспечения искусственного интеллекта: взгляд из России / В. А. Шестак, А. Г. Волеводз // Всероссийский криминологический журнал. — 2019. — Т. 13.
— №. 2. — С. 197-206.


Работу высылаем на протяжении 30 минут после оплаты.




©2025 Cервис помощи студентам в выполнении работ