Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску
BAE Systems Corax во время летных испытаний

Летальное автономное оружие ( LAW ) - это тип автономной военной системы, которая может независимо искать и поражать цели на основе запрограммированных ограничений и описаний. [1] ЗАКОНЫ также известны как летальные автономные системы оружия (LAWS), автономные системы оружия (AWS), роботизированное оружие , роботы-убийцы или бойни . [2] ЗАКОНЫ могут действовать в воздухе, на суше, на воде, под водой или в космосе. Автономность текущих систем по состоянию на 2018 год был ограничен в том смысле, что человек дает окончательную команду атаковать - хотя есть исключения с некоторыми «защитными» системами.

Автономность как оружие [ править ]

«Автономность» имеет разное значение в разных областях обучения. В инженерии это может относиться к способности машины работать без участия человека. В философии это может относиться к человеку, который морально независим. В политологии это может относиться к способности области к самоуправлению . Что касается разработки военного оружия, идентификация оружия как автономного не так ясна, как в других областях. [1] Конкретный стандарт, вытекающий из концепции автономии, может сильно различаться у разных ученых, наций и организаций.

У разных людей есть много определений того, что представляет собой летальное автономное оружие. Хизер Рофф, писатель юридического факультета Университета Кейс Вестерн Резерв , описывает автономные системы оружия как «системы вооруженного оружия, способные учиться и адаптировать свое« функционирование в ответ на меняющиеся обстоятельства в среде, в которой [они] развернуты », как а также способны самостоятельно принимать решения об увольнении ". [3] Это определение автономных систем оружия является довольно высоким порогом по сравнению с определениями ученых, таких как Питер Асаро и Марк Губруд, приведенными ниже.

Такие ученые, как Питер Асаро и Марк Губруд, пытаются установить более низкий порог и считают больше систем оружия автономными. Они считают, что любая система оружия, способная выпустить смертоносную силу без операции, решения или подтверждения со стороны человека, может считаться автономной. По словам Губруда, система оружия, работающая частично или полностью без вмешательства человека, считается автономной. Он утверждает, что система оружия не должна быть способной принимать решения полностью сама по себе, чтобы называться автономной. Вместо этого его следует рассматривать как автономный, если он активно участвует в одной или нескольких частях «процесса подготовки», от поиска цели до окончательного выстрела. [4] [5]

Другие организации, однако, устанавливают стандарт автономных систем вооружения на более высоком уровне. Министерство обороны (Соединенное Королевство) определяет системы автономного оружия , как «система, которые способны понять более высокий уровень намерения и направление. Из этого понимания и его восприятие окружающей его среды, такая система способно принять соответствующие меры , чтобы добиться желаемого Состояние. Он способен определять курс действий из ряда альтернатив, независимо от надзора и контроля со стороны человека - однако такое взаимодействие человека с системой может все еще присутствовать. В то время как общая активность автономного беспилотного летательного аппарата будет предсказуемыми, индивидуальные действия не могут быть ». [6]

В результате состав договора между государствами требует общепринятой маркировки того, что именно представляет собой автономное оружие. [7]

Автоматические защитные системы [ править ]

Самым старым смертоносным оружием с автоматическим срабатыванием является фугас , применяемый по крайней мере с 1600-х годов, и морские мины , используемые по крайней мере с 1700-х годов. Противопехотные мины запрещены Оттавским договором 1997 года во многих странах, за исключением США, России и большей части Азии и Ближнего Востока.

Некоторыми текущими примерами ЗАКОНов являются автоматизированные системы активной защиты «жесткого уничтожения» , такие как системы CIWS с радиолокационным наведением, используемые для защиты судов, которые используются с 1970-х годов (например, CIWS Phalanx США ). Такие системы могут автономно определять и атаковать приближающиеся ракеты, ракеты, артиллерийский огонь, самолеты и надводные корабли в соответствии с критериями, установленными человеком-оператором. Подобные системы существуют для танков, таких как «Русская Арена» , «Израильский трофей» и немецкий AMAP-ADS . Несколько типов стационарных сторожевых орудий , которые могут стрелять по людям и транспортным средствам, используются в Южной Корее и Израиле. Многие противоракетная оборонатакие системы, как Iron Dome , также обладают возможностями автономного наведения. Автоматические турели, устанавливаемые на военные машины , называются дистанционными боевыми модулями .

Основная причина отсутствия «человека в курсе» в этих системах - необходимость быстрого реагирования. Как правило, они использовались для защиты персонала и объектов от летящих снарядов.

Автономные наступательные системы [ править ]

Системы с более высокой степенью автономности будут включать дроны или беспилотные боевые летательные аппараты , например: «Невооруженный прототип реактивного боевого беспилотника BAE Systems Taranis может привести к созданию будущей боевой воздушной системы, которая может автономно искать, идентифицировать и определять местонахождение врагов, но может вступать в бой с целью только с разрешения командования миссии. Он также может защищаться от вражеских самолетов »(Heyns 2013, §45). Нортроп Грумман X-47B беспилотный может взлет и посадку на авианосцах (продемонстрированных в 2014 году); его планируется превратить в систему беспилотного авианосного наблюдения и нанесения ударов (UCLASS).

Сербский тягач Land Rover Defender с гусеничным боевым роботом "Милош".

Согласно The Economist , по мере развития технологий будущие применения беспилотных подводных аппаратов могут включать разминирование, установку мин, создание сетей противолодочных датчиков в спорных водах, патрулирование с помощью активного гидролокатора, пополнение запасов пилотируемых подводных лодок и превращение в недорогие ракетные платформы. [8] В 2018 году в обзоре ядерной политики США утверждалось, что Россия разрабатывает «новую межконтинентальную ядерную автономную торпеду с ядерной энергетикой» под названием « Статус 6 ». [9]

Россия Федерация активно развивается искусственно интеллектуальные ракеты , [10] дроны , [11] беспилотные летательные аппараты , боевые роботы и роботы медика. [12] [13] [14] [15]

Министр Израиля Айуб Кара заявил в 2017 году, что Израиль разрабатывает военных роботов, в том числе таких маленьких, как мухи. [16] [17]

В октябре 2018 года Цзэн И, старший исполнительный директор китайской оборонной фирмы Norinco , выступил с речью, в которой сказал, что «на полях сражений будущего не будут сражаться люди» и что использование летального автономного оружия в войне «неизбежно. . " [18] В 2019 году министр обороны США Марк Эспер обрушился на Китай за продажу беспилотных летательных аппаратов, способных уносить жизнь без надзора со стороны человека. [19]

В 2019 году британская армия развернула новые беспилотные автомобили и военных роботов [20].

ВМС США разрабатывают «призрак» флотилию беспилотных кораблей . [21]

Этические и юридические вопросы [ править ]

Стандарт, используемый в политике США [ править ]

Текущая политика США гласит: «Автономные… системы вооружения должны быть спроектированы таким образом, чтобы позволить командирам и операторам иметь надлежащий уровень человеческого суждения о применении силы». [22] Однако политика требует, чтобы автономные системы оружия, которые убивают людей или используют кинетическую силу, выбирают и поражают цели без дальнейшего вмешательства человека, были сертифицированы как соответствующие «надлежащим уровням» и другим стандартам, а не так, что такие системы оружия не могут соответствовать этим требованиям. стандарты и поэтому запрещены. [23] «Полуавтономные» охотники-убийцы, которые самостоятельно идентифицируют и атакуют цели, даже не требуют сертификации. [23] Заместитель министра обороны Роберт Ворк заявил в 2016 году, что министерство обороны «не будет делегировать смертоносные полномочия машине для принятия решения», но, возможно, придется пересмотреть это, поскольку «авторитарные режимы» могут это сделать. [24] В октябре 2016 года президент Барак Обама заявил, что в начале своей карьеры он опасался будущего, в котором президент США, использующий беспилотные войны, может «вести бесконечные войны по всему миру, причем многие из них будут тайными, без любая подотчетность или демократические дебаты ". [25] [26] В США ИИ, связанный с безопасностью, с 2018 года находится в ведении Комиссии национальной безопасности по искусственному интеллекту. [27] [28]31 октября 2019 года Совет по инновациям в обороне Министерства обороны США опубликовал проект отчета, в котором излагаются пять принципов использования искусственного интеллекта и 12 рекомендаций по этичному использованию искусственного интеллекта Министерством обороны, которые гарантируют, что человек-оператор будет всегда иметь возможность заглянуть в «черный ящик» и понять процесс kill-chain. Основная проблема заключается в том, как отчет будет реализован. [29]

Возможные нарушения этики и международных норм [ править ]

Стюарт Рассел , профессор информатики из Калифорнийского университета в Беркли, заявил, что обеспокоенность, которую он испытывает по поводу LAWS, заключается в том, что, по его мнению, это неэтично и бесчеловечно. Основная проблема этой системы заключается в том, что трудно отличить комбатантов от некомбатантов. [30]

Некоторые (яйцо Ноэль Шарки 2012) обеспокоены тем, что ЗАКОНЫ будут нарушать международное гуманитарное право , особенно принцип различия, который требует способности отличать комбатантов от некомбатантов, и принцип соразмерности , который требует нанесения ущерба гражданским лицам. пропорционально военной цели. [31] Это беспокойство часто называют причиной для полного запрета «роботов-убийц» - но сомнительно, что это беспокойство может быть аргументом против ЗАКОНОВ, не нарушающих международное гуманитарное право. [32] [33]

Некоторые говорят, что законы размывают границы того, кто несет ответственность за конкретное убийство [34], но Томас Симпсон и Винсент Мюллер утверждают, что они могут облегчить запись того, кто какую команду отдал. [35] Аналогичным образом, Стивен Амбрелло , Фил Торрес и Анджело Ф. Де Беллис утверждают, что если технические возможности ЗАКОНОВ по крайней мере так же точны, как и человеческие солдаты, то, учитывая психологические недостатки солдат-людей на войне, гарантирует, что только эти типы этических норм Следует использовать ЗАКОНЫ. Точно так же они предлагают использовать ценностно-чувствительный подход к проектированию в качестве потенциальной основы для разработки этих законов в соответствии с общечеловеческими ценностями и международным гуманитарным правом . [33]

Кампании по запрету ЗАКОНОВ [ править ]

Возможность ЗАКОНОВ вызвала серьезные споры, особенно о риске «роботов-убийц», блуждающих по Земле - в ближайшем или далеком будущем. Группа Campaign to Stop Killer Robots сформирована в 2013 году. В июле 2015 года более 1000 экспертов в области искусственного интеллекта подписали письмо, предупреждающее об угрозе гонки вооружений искусственного интеллекта и призывающее к запрету автономного оружия. Письмо было представлено в Буэнос-Айресе на 24-й Международной совместной конференции по искусственному интеллекту (IJCAI-15) и подписано Стивеном Хокингом , Илоном Маском , Стивом Возняком , Ноамом Хомски , Skype.соучредитель Яан Таллинн и соучредитель Google DeepMind Демис Хассабис и другие. [36] [37]

Согласно PAX (одна из организаций-учредителей Кампании по борьбе с роботами-убийцами), полностью автоматизированное оружие (FAW) снизит порог вступления в войну, поскольку солдаты удаляются с поля битвы, а население отстраняется от войны, что дает политикам и другим лицам, принимающим решения, больше свободы в принятии решений, когда и как начинать войну. [38] Они предупреждают, что, будучи развернутыми, FAW сделают демократический контроль над войной более трудным - о чем также предупреждал автор Kill Decision - романа на эту тему - и ИТ-специалист Дэниел Суарес : по его мнению, это может привести к рецентрализации власти в очень мало рук, требуя, чтобы очень мало людей пошло на войну. [38]

Есть веб-сайты [ необходимы разъяснения ], протестующие против разработки ЗАКОНОВ, представляя нежелательные разветвления в случае продолжения исследований использования искусственного интеллекта для обозначения оружия. На этих веб-сайтах постоянно обновляются новости по этическим и правовым вопросам, чтобы посетители могли вспомнить последние новости о международных встречах и исследовательские статьи, касающиеся ЗАКОНОВ. [39]

Святейший Престол призвал международное сообщество запретить использование ЗАКОНОВ несколько раз. В ноябре 2018 года архиепископ Иван Юркович , постоянный наблюдатель Святого Престола при Организации Объединенных Наций, заявил: «Чтобы предотвратить гонку вооружений и рост неравенства и нестабильности, необходимо действовать незамедлительно. пора не допустить, чтобы ЗАКОНЫ стали реальностью завтрашней войны ». Церковь обеспокоена тем, что эти системы вооружений способны необратимо изменить характер войны, создать отстраненность от человеческого вмешательства и поставить под вопрос человечность общества. [40]

По состоянию на 29 марта 2019 года большинство правительств, представленных на заседании ООН для обсуждения этого вопроса, высказались за запрет ЗАКОНЫ. [41] Меньшинство правительств, включая правительства Австралии, Израиля, России, Великобритании и США, выступило против запрета. [41]

Никакого запрета, но регулирование [ править ]

Третий подход направлен на регулирование использования автономных систем оружия вместо запрета. [42] Военный контроль над вооружениями ИИ, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной («Трек II») дипломатией сообщества экспертов, а также с процессом правовой и политической проверки. [43] [44] [45]

См. Также [ править ]

  • Гонка вооружений искусственного интеллекта
  • Список вымышленных военных роботов
  • Убойные роботы

Ссылки [ править ]

  1. ^ a b Крутоф, Ребекка (2015). «Роботы-убийцы здесь: юридические и политические последствия» . 36 Cardozo L. Rev : 1837 - через heinonline.org.
  2. Джонсон, Хари (31 января 2020 г.). «Эндрю Ян предостерегает от« убойных роботов »и призывает запретить автономное вооружение во всем мире» . venturebeat.com . VentureBeat . Проверено 31 января 2020 года .
  3. ^ Рофф, вереск (2015). «Смертельное автономное оружие и пропорциональность Jus Ad Bellum» .
  4. ^ Асар, Питер (2012). «О запрете автономных систем оружия: права человека, автоматизация и дегуманизация принятия смертельных решений». Красный Крест . 687 : 94.
  5. ^ "Автономия без тайны: где вы проводите черту?" . 1.0 Человек . 2014-05-09 . Проверено 8 июня 2018 .
  6. ^ "Беспилотные авиационные системы (JDP 0-30.2)" . GOV.UK . Проверено 8 июня 2018 .
  7. ^ "Тейлор и Фрэнсис Групп" . www.taylorfrancis.com . Проверено 8 июня 2018 .
  8. ^ «Знакомство с военной робототехникой» . Экономист . 25 января 2018 . Проверено 7 февраля 2018 .
  9. ^ «США заявляют, что Россия« разрабатывает »подводную торпеду с ядерным вооружением» . CNN . 2018 . Проверено 7 февраля 2018 .
  10. ^ «Россия создает ракету, которая может принимать собственные решения» . 2017-07-20.
  11. ^ «Цифровое оружие судного дня России: Роботы готовятся к войне - Россия за гранью» . 2017-05-31.
  12. ^ « Товарищ по оружию“: Россия разрабатывает военную машину свободомыслящий» . 2017-08-09.
  13. ^ «Восстание машин: взгляд на новейшие боевые роботы России» . 2017-06-06.
  14. ^ «Терминатор вернулся? Русские добились больших успехов в области искусственного интеллекта» . 2016-02-10.
  15. ^ «Виртуальный тренажер для роботов и дронов, разработанный в России» . 2017-05-15.
  16. ^ «Кара: Я не разглашал государственные секреты о роботах -" Джерузалем Пост "» .
  17. ^ «Мини-ядерное оружие и осмотрите оружие ботов, готовящееся к будущей войне» . 2017-03-17.
  18. ^ Аллен, Грегори. «Понимание стратегии Китая в области искусственного интеллекта» . Центр новой американской безопасности . Центр новой американской безопасности . Проверено 11 марта 2019 .
  19. ^ "Китай экспортирует роботов-убийц на Ближний Восток?" . Asia Times . 2019-11-28 . Проверено 21 декабря 2019 .
  20. ^ «Британская армия оперативно развернет новых роботов в 2019 году | Март 2019 Глобальная армия новостей оборонной безопасности | Мировая армия оборонной безопасности 2019 | Архив новостей года» .
  21. ^ http://navyrecognition.com/index.php/news/defence-news/2019/march/6898-us-navy-plans-to-build-an-unmanned-ghost-fleet.html
  22. ^ Министерство обороны США (2012). «Директива 3000.09, Автономность в системах оружия» (PDF) . п. 2.
  23. ^ a b Марк Губруд (апрель 2015 г.). «Полуавтономные и сами по себе: роботы-убийцы в пещере Платона» . Бюллетень ученых-атомщиков .
  24. ^ «Пентагон изучает угрозу« роботов-убийц »» . Бостон Глоуб . 30 марта 2016 г.
  25. ^ «Барак Обама на 5 дней, которые сформировали его президентство» . Daily Intelligencer. 2016-10-03 . Проверено 3 января 2017 года .
  26. ^ Деверо, Райан; Эммонс, Алекс (2016-10-03). «Обама беспокоится, что будущие президенты будут вести постоянную тайную войну с дронами» . Перехват . Проверено 3 января 2017 года .
  27. ^ Стефаник, Элиза М. (2018-05-22). «HR5356 - 115-й Конгресс (2017–2018): Закон 2018 года об искусственном интеллекте Комиссии национальной безопасности» . www.congress.gov . Проверено 13 марта 2020 .
  28. ^ Baum, Сет (2018-09-30). «Противодействие дезинформации суперинтеллекта» . Информация . 9 (10): 244. DOI : 10,3390 / info9100244 . ISSN 2078-2489 . 
  29. ^ Соединенные Штаты. Совет по оборонным инновациям. Принципы искусственного интеллекта: рекомендации Министерства обороны по этическому использованию искусственного интеллекта . OCLC 1126650738 . 
  30. Рассел, Стюарт (27 мая 2015 г.). «Станьте противником ИИ-оружия» . Международный еженедельный научный журнал . 521 .
  31. ^ Шарки, Ноэль Э. (июнь 2012 г.). «Неизбежность автономной войны роботов *» . Международное обозрение Красного Креста . 94 (886): 787–799. DOI : 10.1017 / S1816383112000732 . ISSN 1816-3831 . 
  32. ^ Мюллер, Винсент К. (2016). «Автономные роботы-убийцы, наверное, хорошие новости» . Ashgate. С. 67–81.
  33. ^ а б Амбрелло, Стивен; Торрес, Фил; Де Беллис, Анджело Ф. (01.03.2020). «Будущее войны: может ли летальное автономное оружие сделать конфликт более этичным?» . AI и общество . 35 (1): 273–282. DOI : 10.1007 / s00146-019-00879-х . hdl : 2318/1699364 . ISSN 1435-5655 . S2CID 59606353 .  
  34. ^ Nyagudi, Nyagudi Musandu (2016-12-09). "Докторская диссертация по военной информатике (OpenPhD #openphd): летальная автономия оружия спроектирована и / или рецессивна" . Проверено 6 января 2017 .
  35. ^ Симпсон, Томас W; Мюллер, Винсент К. (2016). «Просто война и убийства роботов» . Philosophical Quarterly . 66 (263): 302–22. DOI : 10,1093 / рд / pqv075 .
  36. ^ «Маск, Хокинг предупреждает об оружии искусственного интеллекта» . Блоги WSJ - цифры . 2015-07-27 . Проверено 28 июля 2015 .
  37. Рианна Гиббс, Сэмюэл (27 июля 2015 г.). «Маск, Возняк и Хокинг призывают запретить боевой ИИ и автономное оружие» . Хранитель . Проверено 28 июля 2015 года .
  38. ^ a b «Смертельные решения - 8 возражений против роботов-убийц» (PDF) . п. 10 . Проверено 2 декабря +2016 .
  39. ^ "Первая страница" . Запрет летального автономного оружия . 2017-11-10 . Проверено 9 июня 2018 .
  40. ^ "Святой Престол возобновляет призыв запретить роботов-убийц" . Католическое информационное агентство . Проверено 30 ноября 2018 .
  41. ^ a b Гейл, Дэмиен (2019-03-29). «Великобритания, США и Россия среди тех, кто выступает против запрета на использование роботов-убийц» . Хранитель . Проверено 30 марта 2019 .
  42. ^ Бенто, Лукас (2017). «No Mere Deodands: ответственность человека при использовании агрессивных интеллектуальных систем в соответствии с международным публичным правом» . Депозитарий стипендий Гарварда . Проверено 14 сентября 2019 .
  43. ^ Geist, Эдвард Мур (2016-08-15). «Уже слишком поздно останавливать гонку вооружений искусственного интеллекта - вместо этого мы должны управлять ею». Бюллетень ученых-атомщиков . 72 (5): 318–321. Bibcode : 2016BuAtS..72e.318G . DOI : 10.1080 / 00963402.2016.1216672 . ISSN 0096-3402 . S2CID 151967826 .  
  44. ^ Maas, Маттийс М. (2019-02-06). «Насколько жизнеспособен международный контроль над вооружениями для военного искусственного интеллекта? Три урока из ядерного оружия». Современная политика безопасности . 40 (3): 285–311. DOI : 10.1080 / 13523260.2019.1576464 . ISSN 1352-3260 . S2CID 159310223 .  
  45. ^ Ekelhof, Merel (2019). «Выходя за рамки семантики автономного оружия: значимый человеческий контроль в действии» . Глобальная политика . 10 (3): 343–348. DOI : 10.1111 / 1758-5899.12665 . ISSN 1758-5899 . 

Дальнейшее чтение [ править ]

  • Хейнс, Кристоф (2013), «Отчет Специального докладчика по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях», Генеральная Ассамблея ООН, Совет по правам человека, 23 (3), A / HRC / 23/47.
  • Кришнан, Армин (2009), Роботы-убийцы: Законность и этичность автономного оружия (Олдершот: Ashgate)
  • Мюллер, Винсент К. (2016), «Автономные роботы-убийцы, вероятно, хорошие новости» , в Эцио Ди Нуччи и Филиппо Сантони де Сио (ред.), Дроны и ответственность: Правовые, философские и социотехнические перспективы использования удаленных устройств. контролируемое оружие, 67-81 (Лондон: Ashgate).
  • Кампания Стюарта Рассела против ЗАКОНОВ
  • Шарки, Ноэль Э (2012), «Автоматизация войны: уроки, извлеченные из дронов», Journal of Law, Information & Science , 21 (2).
  • Симпсон, Томас В. и Мюллер, Винсент К. (2016), «Справедливая война и убийства роботов» , The Philosophical Quarterly 66 (263), 302–22.
  • Певец, Питер (2009), Wired for war: робототехническая революция и конфликт в 21 веке (Нью-Йорк: Пингвин)
  • Министерство обороны США (2012 г.), «Директива 3000.09, Автономность в системах вооружений». <Документ о политике в отношении роботов-убийц 2014 г., Final.docx>.
  • Министерство обороны США (2013 г.), «Интегрированная дорожная карта беспилотных систем на 2013-2038 гг.». < http://www.defense.gov/pubs/DOD-USRM-2013.pdf%3E .
  • Семинар по этике автономных систем оружия (2014 г.) в UPenn < https://www.law.upenn.edu/institutes/cerl/conferences/ethicsofweapons/schedule-required-readings.php >