Правовое регулирование военизированного искусственного интеллекта
|
ВВЕДЕНИЕ 3
1. Военизированный искусственный интеллект с правовой и научной точек
зрения 6
2. Проблемы и перспективы международного правового регулирования военизированного искусственного интеллекта 24
ЗАКЛЮЧЕНИЕ 44
СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 49
1. Военизированный искусственный интеллект с правовой и научной точек
зрения 6
2. Проблемы и перспективы международного правового регулирования военизированного искусственного интеллекта 24
ЗАКЛЮЧЕНИЕ 44
СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 49
В настоящее время принято считать, что искусственный интеллект — это универсальная «таблетка»; что эта технология открывает человеку множество прежде недоступных дверей, значительно повышая качество жизни и оптимизируя многие повседневные и рабочие процессы. Искусственный интеллект внедряют в медицину, искусство, бизнес и в обыкновенную, бытовую жизнь — с трудом представляется современный человек без тесной вовлечённости в интернет вещей, к примеру.
Область применения искусственного интеллекта практически безгранична, человечество упорно движется по пути автоматизации всех витальных процессов в стремлении создать для себя некого помощника, второй, но механический мозг, который бы мог выполнять крупные многоступенчатые задачи без потери эффективности — в стремлении создать такую среду, в которой не пришлось бы тратить ресурсы на обеспечение базовых вещей и потребностей (например, потребности в безопасности). И если одна часть человечества видит реализацию этой идеи в модернизации существующих систем, оптимизирующих быт и хозяйство, то другая же — обыкновенно наделённая политической властью и силой или так или иначе коррелирующая с оборонной системой государства — естественным образом обращается к другим возможностям ИИ, которые могли бы способствовать укреплению защитной архитектуры государства, и в таком случае искусственный интеллект зачастую подвергается милитаризации и приобретает дополнительное обозначение — «военизированный».
Идея применения искусственного интеллекта в системе обороны не нова.
Она варьируется в своих проявлениях — от беспилотных летательных аппаратов до системы видеонаблюдения с распознаванием лиц. Некоторые государства успели не только выстроить архитектуру защиты из систем искусственного интеллекта, но и проверили её на практике — например, Израиль и его знаменитый «Железный купол», находящийся на вооружении с 2005 года и в непосредственной эксплуатации — с 2011.
На данный момент, в 2022 году, военизированный искусственный интеллект видится практически идеальным решением не только для ведения войны и военных операций в их классическом смысле, но также и для ведения войны информационной. Можно с уверенностью сказать, что конфликты практически завершили переход в свою новую форму. Армия в общепринятом смысле всё ещё остаётся основой для государства, однако вектор смещается, и на первый план выходит искусственный интеллект как эффективный, но в то же время более «гуманный» способ ведения войны.
Однако это лишь в теории беспилотные летательные аппараты ведут бои исключительно друг с другом, высокоточными ударами уничтожая только лишь вражеское наземное или какое бы то ни было иное вооружение. На практике оказывается, что военизированный искусственный интеллект — вещь значительной степени деструктивности, и даже если вести войну, используя лишь ИИ, потерь (как среди военных, так и среди гражданских лиц) всё равно не избежать. И здесь встаёт множество вопросов, касающихся необходимости правового регулирования военизированного ИИ и правомерности его применения в военных конфликтах с точки зрения международного гуманитарного права, а также того, на ком будет лежать ответственность за так называемые «civilian casualties». Кроме того, интерес представляет также и то, как именно искусственный интеллект принимает решения в условиях боя и что делать с осечками. И в том случае, если искусственный интеллект будет в принципе способен на принятие решений в условиях военных действий, то переходит ли он из категории оружия в категорию комбатантов?
На сегодняшний день вопросы применения искусственного интеллекта и автономных систем вооружений нормами международного гуманитарного права непосредственно не урегулированы, и именно поэтому мы считаем важным и актуальным написать работу по данной теме.
Объект исследования — применение военизированного искусственного интеллекта в международных отношениях.
Предмет исследования — правовое регулирование военизированного искусственного интеллекта с точки зрения международного гуманитарного права.
Целью данной бакалаврской работы мы видим необходимость проанализировать проблемы применения военизированного искусственного интеллекта с точки зрения международного гуманитарного права и оценить перспективы правового регулирования его использования в будущем.
Для достижения цели исследования планируется выполнить следующие задачи:
• проанализировать понятие «военизированный искусственный интеллект» с точки зрения международного права;
• проанализировать проблемы применения военизированного искусственного интеллекта с точки зрения действующего международного гуманитарного права;
• дать оценку возможным перспективам международного правового регулирования военизированного искусственного интеллекта.
Степень научной разработанности: данная тема является актуальной, что могло бы предполагать высокую степень изученности и многообразие научного материала, однако также существует явный дефицит правовых первоисточников, так как мировое сообщество всё ещё находится в стадии их разработки и согласования. Тем не менее, научных статей, международных исследований и прогнозов достаточно, чтобы исследование данной темы протекало без излишних трудностей.
Область применения искусственного интеллекта практически безгранична, человечество упорно движется по пути автоматизации всех витальных процессов в стремлении создать для себя некого помощника, второй, но механический мозг, который бы мог выполнять крупные многоступенчатые задачи без потери эффективности — в стремлении создать такую среду, в которой не пришлось бы тратить ресурсы на обеспечение базовых вещей и потребностей (например, потребности в безопасности). И если одна часть человечества видит реализацию этой идеи в модернизации существующих систем, оптимизирующих быт и хозяйство, то другая же — обыкновенно наделённая политической властью и силой или так или иначе коррелирующая с оборонной системой государства — естественным образом обращается к другим возможностям ИИ, которые могли бы способствовать укреплению защитной архитектуры государства, и в таком случае искусственный интеллект зачастую подвергается милитаризации и приобретает дополнительное обозначение — «военизированный».
Идея применения искусственного интеллекта в системе обороны не нова.
Она варьируется в своих проявлениях — от беспилотных летательных аппаратов до системы видеонаблюдения с распознаванием лиц. Некоторые государства успели не только выстроить архитектуру защиты из систем искусственного интеллекта, но и проверили её на практике — например, Израиль и его знаменитый «Железный купол», находящийся на вооружении с 2005 года и в непосредственной эксплуатации — с 2011.
На данный момент, в 2022 году, военизированный искусственный интеллект видится практически идеальным решением не только для ведения войны и военных операций в их классическом смысле, но также и для ведения войны информационной. Можно с уверенностью сказать, что конфликты практически завершили переход в свою новую форму. Армия в общепринятом смысле всё ещё остаётся основой для государства, однако вектор смещается, и на первый план выходит искусственный интеллект как эффективный, но в то же время более «гуманный» способ ведения войны.
Однако это лишь в теории беспилотные летательные аппараты ведут бои исключительно друг с другом, высокоточными ударами уничтожая только лишь вражеское наземное или какое бы то ни было иное вооружение. На практике оказывается, что военизированный искусственный интеллект — вещь значительной степени деструктивности, и даже если вести войну, используя лишь ИИ, потерь (как среди военных, так и среди гражданских лиц) всё равно не избежать. И здесь встаёт множество вопросов, касающихся необходимости правового регулирования военизированного ИИ и правомерности его применения в военных конфликтах с точки зрения международного гуманитарного права, а также того, на ком будет лежать ответственность за так называемые «civilian casualties». Кроме того, интерес представляет также и то, как именно искусственный интеллект принимает решения в условиях боя и что делать с осечками. И в том случае, если искусственный интеллект будет в принципе способен на принятие решений в условиях военных действий, то переходит ли он из категории оружия в категорию комбатантов?
На сегодняшний день вопросы применения искусственного интеллекта и автономных систем вооружений нормами международного гуманитарного права непосредственно не урегулированы, и именно поэтому мы считаем важным и актуальным написать работу по данной теме.
Объект исследования — применение военизированного искусственного интеллекта в международных отношениях.
Предмет исследования — правовое регулирование военизированного искусственного интеллекта с точки зрения международного гуманитарного права.
Целью данной бакалаврской работы мы видим необходимость проанализировать проблемы применения военизированного искусственного интеллекта с точки зрения международного гуманитарного права и оценить перспективы правового регулирования его использования в будущем.
Для достижения цели исследования планируется выполнить следующие задачи:
• проанализировать понятие «военизированный искусственный интеллект» с точки зрения международного права;
• проанализировать проблемы применения военизированного искусственного интеллекта с точки зрения действующего международного гуманитарного права;
• дать оценку возможным перспективам международного правового регулирования военизированного искусственного интеллекта.
Степень научной разработанности: данная тема является актуальной, что могло бы предполагать высокую степень изученности и многообразие научного материала, однако также существует явный дефицит правовых первоисточников, так как мировое сообщество всё ещё находится в стадии их разработки и согласования. Тем не менее, научных статей, международных исследований и прогнозов достаточно, чтобы исследование данной темы протекало без излишних трудностей.
В данной выпускной квалификационной работе был проведен подробный анализ военизированного искусственного интеллекта, а также проблем и перспектив его международного правового регулирования. В результате проведённого исследования были сделаны следующие выводы.
Военизированный искусственный интеллект — это в основном частично автономные системы или комплексы вооружений, обладающие функцией самостоятельного поиска цели, выявления, наведения и её поражения и действующие обыкновенно под контролем человека-оператора и при строго определённых исходных данных, к коим относятся, например, численность военных и гражданских лиц или объектов в непосредственной близости от установок ВИИ.
Данное определение подразумевает следующие виды вооружений:
• дроны (устройства, управляемые людьми по сценарию «совместного управления»; спектр применения варьируется от функций разведки и мониторинга территории, до нанесения непосредственного физического ущерба живой силе противника);
• беспилотные летательные аппараты (устройства, работающие в большей степени автономно, выполняющие функции мониторинга территории, анализа, сбора данных, обнаружения и поражения цели; один из самых известных представителей — израильский БПЛА «Гарпия», который запрограммирован на полет в определенный район, отслеживание конкретных целей, а затем — их уничтожение с помощью фугасной боеголовки, носящую название «Fire and Forget»).
• системы противоракетной и противовоздушной обороны (ПВО) (обыкновенно, состоят из радиолокационных центров и систем управления; относятся к категории частично автономного ВИИ, так как управление осуществляется по сценарию «диспетчерского управления», о котором мы скажем далее; самые известные частично автоматизированные системы ПВО — «Железный купол» (Израиль), HQ-9 (КНР), «Патриот» (США), франко-итальянский комплекс SAMP-T и «Триумф» (Российская Федерация)).
• смертоносные автоматизированные системы (САС) (по аналогии с «камикадзе», тождественны по своей сути беспилотным летательным аппаратам, однако запрограммированы на обнаружение и уничтожение цели, которой в основном является живая сила противника);
• беспилотные летательные аппараты-камикадзе (тождественны простым БПЛА за тем исключением, что выполняют одну лишь функцию: БПЛА-камикадзе запрограммированы на самоуничтожение при достижении своей цели — например, объекта военной инфраструктуры противника);
• барражирующий боеприпас (тип БПЛА с интегрированной боевой частью; характеризуется способностью долгое время находиться в режиме ожидания в воздухе в зоне цели и поражать её после команды оператора либо же самовольно, если таковое предусмотрено алгоритмом; иногда используется в качестве понятия, синонимичного БПЛА-камикадзе).
Изучив основные формы военизированного искусственного интеллекта, мы пришли к выводу, что главная особенность большинства таких систем — это заложенная в них управляемость, то есть возможность человека-оператора вмешаться в процесс принятия решения о поражении цели искусственным интеллектом и проконтролировать запуск боевого снаряда. Более того, каждая система военизированного искусственного интеллекта контролируется на различном уровне, по различным сценариям. МККК определили следующие сценарии:
1. Сценарий «прямого (существенного) управления». Данный сценарий требует перманентного контроля со стороны человека-оператора для непосредственного управления системой и её функциями, что делает её полностью неавтономной.
2. Сценарий «совместного (адекватного) управления». В данном сценарии человек-оператор напрямую выполняет лишь какой-то ограниченный спектр функций, а ИИ, в свою очередь, выполняет другие функции именно под наблюдением оператора. Такой сценарий реализуется, например, при запуске дронов: пока оператор фокусируется на управлении критически важными функциями и задачами, искусственный интеллект сосредотачивается на реализации функции полёта и навигации.
3. Сценарий «диспетчерского (эффективного) управления». Данная стратегия управления предусматривает следующее: роботизированная система выполняет задачи автономно, в то время как человек-оператор осуществляет наблюдение и может вводить в эксплуатацию какие-либо инструкции и/или вмешиваться и возвращать контроль над управлением, если это необходимо. По этому сценарию контролируется израильская система ПВО «Железный купол».
Проанализировав то, как работает военизированный искусственный интеллекта на практике, как он обучается и как реализуется его автономность, мы можем сказать, что военизированный интеллект имеет как достоинства, так и существенные недостатки. Учитывая общее несовершенство механизмов и машин, их естественную склонность к сбоям и ошибкам, отсутствие понимания понятий «человечности», «морали», «этики», «милосердия», стоит говорить о том, что недостатков гораздо больше, нежели достоинств.
Развитие военизированного искусственного интеллекта также влечёт за собой увеличение скорости военных действий и укрупнение их масштабов — как когда-то в свою очередь это сделало ядерное оружие. В связи с этим, военизированный искусственный интеллект в перспективе породит огромный разрыв в военной мощи государств, который и на данный момент уже достаточно силён. К тому же, искусственный интеллект — это высокая технология, а значит, в некотором смысле «элитная», что только лишь усугубит стремление государств заполучить его и развить. Уже сейчас прослеживается определённая гонка вооружений в этой области, хотя необходимо сосредоточиться на глобальном правовом регулировании, чтобы не повторить опыт прошлых военных конфликтов.
Учитывая военный потенциал искусственного интеллекта, а также угрозы, которые связаны с комбинированием ядерного оружия и военизированного искусственного интеллекта, следует принять за непреложное правило следующую мысль: человек никогда не должен ослаблять уровень своего личного контроля над ядерным оружием. Совмещение военизированного искусственного интеллекта, который ещё даже не вошёл в пик своего развития и мощности, чьи решения не обладают абсолютной прозрачностью, с оружием, применение которого требует огромного количества расчётов и условностей, должно быть заблокировано международным гуманитарным правом.
Что касается ответственности, то на начальном этапе оформления правового регулирования ВИИ важно обозначить сам принцип её неизбежности за применение такого вооружения независимо от того, чем вызваны неблагоприятные последствия — решением человеческого командования или сбоем в системе, а уже определение ответственного лица оставить в ведении государства.
Также в силу того, что государства на данный момент не выработали никакого иного плана будущих действий по регулированию военизированного искусственного интеллекта и автономных систем вооружения, основным правовым принципом для такого вооружения может стать «оговорка Мартенса». Она есть универсальное положение международного гуманитарного права для случаев, которые не могут быть урегулированы позитивными нормами ведения войны. И в таком случае следует обеспечивать защиту гражданских лиц и комбатантов в соответствии с помощью основных начал международного права, которые следуют из принципов гуманности, требований общественного сознания и международных обычаев.
В заключение скажем, что системе международного и международного гуманитарного права требуется трансформация с учётом новых появляющихся вызовов и угроз, и также очевидно, что подход к этой трансформации должен быть комплексным. Помимо этого, необходимо стремиться к балансу сил в области новейшего вооружения, чтобы не повторить сценарии международных конфликтов прошлого века.
Военизированный искусственный интеллект — это в основном частично автономные системы или комплексы вооружений, обладающие функцией самостоятельного поиска цели, выявления, наведения и её поражения и действующие обыкновенно под контролем человека-оператора и при строго определённых исходных данных, к коим относятся, например, численность военных и гражданских лиц или объектов в непосредственной близости от установок ВИИ.
Данное определение подразумевает следующие виды вооружений:
• дроны (устройства, управляемые людьми по сценарию «совместного управления»; спектр применения варьируется от функций разведки и мониторинга территории, до нанесения непосредственного физического ущерба живой силе противника);
• беспилотные летательные аппараты (устройства, работающие в большей степени автономно, выполняющие функции мониторинга территории, анализа, сбора данных, обнаружения и поражения цели; один из самых известных представителей — израильский БПЛА «Гарпия», который запрограммирован на полет в определенный район, отслеживание конкретных целей, а затем — их уничтожение с помощью фугасной боеголовки, носящую название «Fire and Forget»).
• системы противоракетной и противовоздушной обороны (ПВО) (обыкновенно, состоят из радиолокационных центров и систем управления; относятся к категории частично автономного ВИИ, так как управление осуществляется по сценарию «диспетчерского управления», о котором мы скажем далее; самые известные частично автоматизированные системы ПВО — «Железный купол» (Израиль), HQ-9 (КНР), «Патриот» (США), франко-итальянский комплекс SAMP-T и «Триумф» (Российская Федерация)).
• смертоносные автоматизированные системы (САС) (по аналогии с «камикадзе», тождественны по своей сути беспилотным летательным аппаратам, однако запрограммированы на обнаружение и уничтожение цели, которой в основном является живая сила противника);
• беспилотные летательные аппараты-камикадзе (тождественны простым БПЛА за тем исключением, что выполняют одну лишь функцию: БПЛА-камикадзе запрограммированы на самоуничтожение при достижении своей цели — например, объекта военной инфраструктуры противника);
• барражирующий боеприпас (тип БПЛА с интегрированной боевой частью; характеризуется способностью долгое время находиться в режиме ожидания в воздухе в зоне цели и поражать её после команды оператора либо же самовольно, если таковое предусмотрено алгоритмом; иногда используется в качестве понятия, синонимичного БПЛА-камикадзе).
Изучив основные формы военизированного искусственного интеллекта, мы пришли к выводу, что главная особенность большинства таких систем — это заложенная в них управляемость, то есть возможность человека-оператора вмешаться в процесс принятия решения о поражении цели искусственным интеллектом и проконтролировать запуск боевого снаряда. Более того, каждая система военизированного искусственного интеллекта контролируется на различном уровне, по различным сценариям. МККК определили следующие сценарии:
1. Сценарий «прямого (существенного) управления». Данный сценарий требует перманентного контроля со стороны человека-оператора для непосредственного управления системой и её функциями, что делает её полностью неавтономной.
2. Сценарий «совместного (адекватного) управления». В данном сценарии человек-оператор напрямую выполняет лишь какой-то ограниченный спектр функций, а ИИ, в свою очередь, выполняет другие функции именно под наблюдением оператора. Такой сценарий реализуется, например, при запуске дронов: пока оператор фокусируется на управлении критически важными функциями и задачами, искусственный интеллект сосредотачивается на реализации функции полёта и навигации.
3. Сценарий «диспетчерского (эффективного) управления». Данная стратегия управления предусматривает следующее: роботизированная система выполняет задачи автономно, в то время как человек-оператор осуществляет наблюдение и может вводить в эксплуатацию какие-либо инструкции и/или вмешиваться и возвращать контроль над управлением, если это необходимо. По этому сценарию контролируется израильская система ПВО «Железный купол».
Проанализировав то, как работает военизированный искусственный интеллекта на практике, как он обучается и как реализуется его автономность, мы можем сказать, что военизированный интеллект имеет как достоинства, так и существенные недостатки. Учитывая общее несовершенство механизмов и машин, их естественную склонность к сбоям и ошибкам, отсутствие понимания понятий «человечности», «морали», «этики», «милосердия», стоит говорить о том, что недостатков гораздо больше, нежели достоинств.
Развитие военизированного искусственного интеллекта также влечёт за собой увеличение скорости военных действий и укрупнение их масштабов — как когда-то в свою очередь это сделало ядерное оружие. В связи с этим, военизированный искусственный интеллект в перспективе породит огромный разрыв в военной мощи государств, который и на данный момент уже достаточно силён. К тому же, искусственный интеллект — это высокая технология, а значит, в некотором смысле «элитная», что только лишь усугубит стремление государств заполучить его и развить. Уже сейчас прослеживается определённая гонка вооружений в этой области, хотя необходимо сосредоточиться на глобальном правовом регулировании, чтобы не повторить опыт прошлых военных конфликтов.
Учитывая военный потенциал искусственного интеллекта, а также угрозы, которые связаны с комбинированием ядерного оружия и военизированного искусственного интеллекта, следует принять за непреложное правило следующую мысль: человек никогда не должен ослаблять уровень своего личного контроля над ядерным оружием. Совмещение военизированного искусственного интеллекта, который ещё даже не вошёл в пик своего развития и мощности, чьи решения не обладают абсолютной прозрачностью, с оружием, применение которого требует огромного количества расчётов и условностей, должно быть заблокировано международным гуманитарным правом.
Что касается ответственности, то на начальном этапе оформления правового регулирования ВИИ важно обозначить сам принцип её неизбежности за применение такого вооружения независимо от того, чем вызваны неблагоприятные последствия — решением человеческого командования или сбоем в системе, а уже определение ответственного лица оставить в ведении государства.
Также в силу того, что государства на данный момент не выработали никакого иного плана будущих действий по регулированию военизированного искусственного интеллекта и автономных систем вооружения, основным правовым принципом для такого вооружения может стать «оговорка Мартенса». Она есть универсальное положение международного гуманитарного права для случаев, которые не могут быть урегулированы позитивными нормами ведения войны. И в таком случае следует обеспечивать защиту гражданских лиц и комбатантов в соответствии с помощью основных начал международного права, которые следуют из принципов гуманности, требований общественного сознания и международных обычаев.
В заключение скажем, что системе международного и международного гуманитарного права требуется трансформация с учётом новых появляющихся вызовов и угроз, и также очевидно, что подход к этой трансформации должен быть комплексным. Помимо этого, необходимо стремиться к балансу сил в области новейшего вооружения, чтобы не повторить сценарии международных конфликтов прошлого века.



