Jump to content

Летальное автономное оружие

Сербский тягач Land Rover Defender с гусеничным боевым роботом «Милош»

Летальное автономное оружие ( LAW ) — это тип автономной военной системы, которая может самостоятельно искать и поражать цели на основе запрограммированных ограничений и описаний. LAW также известны как летальные автономные системы вооружения (LAWS), автономные системы вооружения (AWS), роботизированное оружие или роботы-убийцы . ЗАКОНЫ могут действовать в воздухе, на суше, на воде, под водой или в космосе. Автономность действующих систем по состоянию на 2018 год была ограничена в том смысле, что человек дает последнюю команду атаковать, хотя есть исключения для некоторых «защитных» систем.

оружие как автономным Быть

Термин «автономность» имеет разное значение в разных областях обучения. С точки зрения разработки военного оружия идентификация оружия как автономного не так очевидна, как в других областях. [1] Конкретный стандарт, заложенный в концепцию автономии, может сильно различаться в зависимости от ученых, стран и организаций.

У разных людей есть много определений того, что представляет собой смертоносное автономное оружие. Официальная политика Министерства обороны США в отношении автономности систем вооружения определяет автономные системы вооружения как «систему вооружения, которая после активации может выбирать и поражать цели без дальнейшего вмешательства человека-оператора». [2] Хизер Рофф, автор юридического факультета Университета Кейс Вестерн Резерв , описывает автономные системы вооружения как «системы вооружения, способные обучаться и адаптировать свое «функционирование в ответ на меняющиеся обстоятельства в среде, в которой [они] развернуты». а также способны самостоятельно принимать решения о стрельбе». [3] Это определение автономных систем вооружения является довольно высоким порогом по сравнению с определениями таких ученых, как Питер Асаро и Марк Губруд, представленными ниже.

Такие ученые, как Питер Асаро и Марк Губруд, пытаются снизить порог и считать больше систем вооружения автономными. Они считают, что любая система вооружения, способная высвободить смертоносную силу без вмешательства, решения или подтверждения человека-контролера, может считаться автономной. По мнению Губруда, система вооружения, работающая частично или полностью без вмешательства человека, считается автономной. Он утверждает, что система вооружения не обязательно должна быть способна принимать решения самостоятельно, чтобы называться автономной. Вместо этого его следует рассматривать как автономный, пока он активно участвует в одной или нескольких частях «процесса подготовки», от обнаружения цели до окончательного выстрела. [4] [5]

Однако другие организации устанавливают более высокие стандарты автономных систем вооружения. Министерство обороны Великобритании определяет автономные системы вооружения как «системы, способные понимать намерения и направления более высокого уровня. Исходя из этого понимания и восприятия окружающей среды, такая система способна предпринимать соответствующие действия для достижения желаемого состояния. способен выбирать образ действий из ряда альтернатив, не полагаясь на надзор и контроль человека - однако такое взаимодействие человека с системой все еще может присутствовать, хотя общая деятельность автономного беспилотного летательного аппарата будет предсказуемой, индивидуальной. действий может и не быть». [6]

В результате состав договора между государствами требует общепринятого определения того, что именно представляет собой автономное оружие. [7]

Автоматические оборонительные системы [ править ]

Самым старым смертоносным оружием автоматического срабатывания является наземная мина , используемая, по крайней мере, с 1600-х годов, и морские мины , используемые, по крайней мере, с 1700-х годов. Противопехотные мины запрещены во многих странах Оттавским договором 1997 года , за исключением США, России и большей части Азии и Ближнего Востока.

Некоторыми современными примерами LAW являются автоматизированные системы активной защиты с радиолокационным наведением, «жесткого уничтожения», такие как системы CIWS используемые для защиты кораблей, которые используются с 1970-х годов (например, американская Phalanx CIWS ). Такие системы могут автономно идентифицировать и атаковать встречные ракеты, ракеты, артиллерийский огонь, самолеты и надводные корабли в соответствии с критериями, установленными человеком-оператором. Подобные системы существуют и для танков, таких как «Русская Арена» , израильский «Трофи» и немецкий AMAP-ADS . Несколько типов стационарных сторожевых орудий , способных вести огонь по людям и транспортным средствам, используются в Южной Корее и Израиле. Многие системы противоракетной обороны , такие как Iron Dome , также имеют возможности автономного наведения.

Основной причиной отсутствия « человека в курсе » в этих системах является необходимость быстрого реагирования. Обычно они использовались для защиты персонала и объектов от летящих снарядов.

Автономные наступательные системы [ править ]

По данным The Economist , по мере развития технологий будущие применения беспилотных подводных аппаратов могут включать в себя разминирование, постановку мин, противолодочные сенсорные сети в оспариваемых водах, патрулирование с помощью активных гидролокаторов, пополнение запасов пилотируемых подводных лодок и превращение в недорогие ракетные платформы. [8] США» В 2018 году в «Обзоре ядерной политики утверждалось, что Россия разрабатывает «новую межконтинентальную подводную автономную торпеду с ядерным вооружением и ядерной установкой» под названием « Статус 6 ». [9]

РФ с активно разрабатывает искусственным интеллектом ракеты . [10] дроны , [11] беспилотные автомобили , военные роботы и роботы-медики. [12] [13] [14] [15]

Министр Израиля Аюб Кара заявил в 2017 году, что Израиль разрабатывает военных роботов, в том числе размером с муху. [16]

В октябре 2018 года Цзэн И, старший руководитель китайской оборонной фирмы Norinco , выступил с речью, в которой сказал, что «на будущих полях сражений не будет людей, сражающихся», и что использование смертоносного автономного оружия в войне «недопустимо». неизбежный". [17] В 2019 году министр обороны США Марк Эспер раскритиковал Китай за продажу дронов, способных уносить жизни без контроля со стороны человека. [18]

В 2019 году британская армия развернула новые беспилотные автомобили и военных роботов. [19]

ВМС США создают «призрачные» флоты беспилотных кораблей . [20]

по Ливии, опубликованному в марте 2021 года, в 2020 году дрон Kargu 2 выследил и атаковал человека в Ливии Согласно отчету Группы экспертов Совета Безопасности ООН . Возможно, это был первый случай, когда автономный робот-убийца был вооружен с применением смертоносного оружия нападали на людей. [21] [22]

В мае 2021 года Израиль провел атаку группы боевых дронов с искусственным интеллектом в секторе Газа. [23]

С тех пор появились многочисленные сообщения об использовании роев и других автономных систем вооружения на полях сражений по всему миру. [24]

Кроме того, DARPA работает над предоставлением американским военным группы из 250 автономных смертоносных дронов. [25]

и юридические вопросы Этические

человеческого Степень контроля

Три классификации степени контроля человека над автономными системами вооружения были изложены Бонни Дочерти в отчете Хьюман Райтс Вотч за 2012 год . [26]

  • «человек в цикле»: человек должен инициировать действие оружия (другими словами, не полностью автономно).
  • «человек в цикле»: человек может прервать действие.
  • «человек вне цикла»: никакие человеческие действия не участвуют.

используемый в политике США , Стандарт

Текущая политика США гласит: «Автономные… системы вооружения должны быть спроектированы так, чтобы позволить командирам и операторам осуществлять соответствующий уровень человеческого суждения о применении силы». [27] Однако политика требует, чтобы автономные системы оружия, которые убивают людей или используют кинетическую силу, выбирая и поражая цели без дальнейшего вмешательства человека, были сертифицированы как соответствующие «надлежащим уровням» и другим стандартам, а не то, что такие системы оружия не могут соответствовать этим стандартам и поэтому запрещено. [28] «Полуавтономные» охотники-убийцы, автономно идентифицирующие и атакующие цели, даже не требуют сертификации. [28] Заместитель министра обороны Роберт О. Уорк заявил в 2016 году, что министерство обороны «не будет делегировать смертоносные полномочия машине для принятия решений», но, возможно, придется пересмотреть это, поскольку «авторитарные режимы» могут поступать так. [29] В октябре 2016 года президент Барак Обама заявил, что в начале своей карьеры он опасался будущего, в котором президент США, использующий боевые действия дронов, сможет «вести бесконечные войны по всему миру, причем многие из них тайные, без какой-либо ответственности или демократические дебаты». [30] [31] В США искусственный интеллект, связанный с безопасностью, с 2018 года находится в ведении Комиссии национальной безопасности по искусственному интеллекту. [32] [33] 31 октября 2019 года Совет по оборонным инновациям Министерства обороны США опубликовал проект отчета, в котором излагаются пять принципов использования искусственного интеллекта в качестве оружия и даются 12 рекомендаций по этическому использованию искусственного интеллекта Министерством обороны, которые гарантируют, что человек-оператор будет всегда иметь возможность заглянуть в «черный ящик» и понять процесс цепочки убийств. Основная проблема заключается в том, как этот отчет будет реализован. [34]

Возможные нарушения этики и международных актов [ править ]

Стюарт Рассел , профессор информатики из Калифорнийского университета в Беркли, заявил, что его обеспокоенность по поводу ЗАКОНОВ заключается в том, что, по его мнению, они неэтичны и бесчеловечны. Основная проблема этой системы заключается в том, что трудно отличить комбатантов от некомбатантов. [35]

Некоторые экономисты обеспокоены [36] и ученые-юристы о том, будут ли ЗАКОНЫ нарушать международное гуманитарное право , особенно принцип различия, который требует возможности отличать комбатантов от некомбатантов, и принцип пропорциональности , который требует, чтобы ущерб гражданскому населению был пропорционален военной цели. [37] Эту озабоченность часто называют причиной полного запрета «роботов-убийц», но сомнительно, что эта озабоченность может стать аргументом против ЗАКОНОВ, которые не нарушают международное гуманитарное право. [38] [39] [40]

американского Конгресса за 2021 год В отчете Исследовательской службы говорится, что «не существует никаких внутренних или международных юридических запретов на использование ЗАКОНов», хотя в нем признается, что переговоры в рамках Конвенции ООН по конкретным видам обычного оружия (КНО) продолжаются. [41]

Некоторые говорят, что ЗАКОНЫ стирают границы ответственности за конкретное убийство. [42] [36] Философ Роберт Воробей утверждает, что автономное оружие несет причинную, но не моральную ответственность, подобно детям-солдатам. В каждом случае, по его мнению, существует риск совершения злодеяний без соответствующего субъекта, который будет нести ответственность, что нарушает нормы права войны . [43] Томас Симпсон и Винсент Мюллер утверждают, что они могут облегчить запись того, кто какую команду отдал. [44] Потенциальные нарушения МГП ЗАКОНАМИ – по определению – применимы только в условиях конфликта, который предполагает необходимость проводить различие между комбатантами и гражданскими лицами. Таким образом, любой сценарий конфликта, лишенный присутствия гражданских лиц – то есть в космосе или в глубоком море – не столкнется с препятствиями, создаваемыми МГП. [45]

запрету Кампании ЗАКОНОВ по

Митинг на ступенях мэрии Сан-Франциско в знак протеста против голосования за разрешение полиции использовать смертоносных роботов.
Митинг на ступенях мэрии Сан-Франциско в знак протеста против голосования за разрешение полиции использовать смертоносных роботов.

Возможность существования ЗАКОНОВ вызвала серьезные споры, особенно о риске появления «роботов-убийц», бродящих по земле – в ближайшем или далеком будущем. Группа Campaign to Stop Killer Robots сформировалась в 2013 году. В июле 2015 года более 1000 экспертов в области искусственного интеллекта подписали письмо, предупреждающее об угрозе гонки вооружений в области искусственного интеллекта и призывающее к запрету автономного оружия. Письмо было представлено в Буэнос-Айресе на 24-й Международной совместной конференции по искусственному интеллекту (IJCAI-15) и подписано Стивеном Хокингом , Илоном Маском , Стивом Возняком , Ноамом Хомским , Skype соучредителем Яаном Таллинном и Google DeepMind. соучредителем основатель Демис Хассабис и другие. [46] [47]

По данным PAX For Peace (одной из организаций-учредителей Кампании по прекращению роботов-убийц), полностью автоматизированное оружие (FAW) снизит порог вступления в войну, поскольку солдаты будут удалены с поля боя, а общественность будет дистанцирована от участия в войне. предоставление политикам и другим лицам, принимающим решения, большего пространства в принятии решений, когда и как начинать войну. [48] Они предупреждают, что после развертывания FAW затруднит демократический контроль над войной - о чем предупреждал автор книги « Kill Decision» - роман на эту тему - и специалист по информационным технологиям Дэниел Суарес : ​​по его мнению, это может привести к повторной централизации власти в очень немногих руках путем требуя, чтобы очень небольшое количество людей шло на войну. [48]

Есть сайты [ нужны разъяснения ] протестуя против разработки ЗАКОНОВ, представляя нежелательные последствия, если исследования по использованию искусственного интеллекта для обозначения оружия продолжатся. На этих веб-сайтах новости по этическим и правовым вопросам постоянно обновляются, чтобы посетители могли ознакомиться с последними новостями о международных встречах и исследовательскими статьями, касающимися ЗАКОНОВ. [49]

Святой Престол несколько раз призывал международное сообщество запретить использование ЗАКОНОВ. В ноябре 2018 года архиепископ Иван Юркович , постоянный наблюдатель Святого Престола при Организации Объединенных Наций, заявил, что «чтобы предотвратить гонку вооружений и рост неравенства и нестабильности, необходимо действовать быстро: сейчас настало время пришло время не допустить, чтобы ЗАКОНЫ стали реальностью завтрашней войны». Церковь обеспокоена тем, что эти системы вооружений способны необратимо изменить характер войны, создать отстранение от человеческой деятельности и поставить под вопрос гуманность общества. [50]

По состоянию на 29 марта 2019 г. Большинство правительств, представленных на заседании ООН для обсуждения этого вопроса, высказались за запрет ЗАКОНОВ. [51] Меньшинство правительств, в том числе Австралии, Израиля, России, Великобритании и США, выступило против запрета. [51] Соединенные Штаты заявили, что автономное оружие помогло предотвратить убийства мирных жителей. [52]

В декабре 2022 года голосование Наблюдательного совета Сан-Франциско за разрешение полицейскому управлению Сан-Франциско использовать ЗАКОНЫ привлекло внимание всей страны и вызвало протесты. [53] [54] Совет отменил это голосование на последующем заседании. [55]

Никакого запрета, но регулирование [ править ]

Третий подход направлен на регулирование использования автономных систем вооружения вместо запрета. [56] Контроль над военным искусственным интеллектом, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной («Путь II») дипломатией со стороны сообществ экспертов, а также процессом юридической и политической проверки. [57] [58] [59] [60] В 2021 году Министерство обороны США запросило диалог с Народно-освободительной армией Китая по вопросу автономного оружия с поддержкой искусственного интеллекта, но получило отказ. [61]

В 2023 году состоялся саммит 60 стран по ответственному использованию ИИ в армии. [62]

22 декабря 2023 года была принята резолюция Генеральной Ассамблеи Организации Объединенных Наций в поддержку международной дискуссии по поводу обеспокоенности по поводу ЗАКОНОВ. Голосовали 152 человека за, четверо против и 11 воздержавшихся. [63]

См. также [ править ]

Ссылки [ править ]

  1. ^ Крутоф, Ребекка (2015). «Роботы-убийцы здесь: юридические и политические последствия» . Кардосо Л. Преподобный . 36 : 1837 – через heinonline.org.
  2. ^ Аллен, Грегори (6 июня 2022 г.). «Министерство обороны обновляет свою десятилетнюю политику автономного вооружения, но путаница по-прежнему широко распространена» . Центр стратегических и международных исследований . Проверено 24 июля 2022 г.
  3. ^ Рофф, Хизер (2015). «Смертельное автономное оружие и пропорциональность Jus Ad Bellum» .
  4. ^ Асаро, Питер (2012). «О запрете автономных систем вооружения: права человека, автоматизация и дегуманизация принятия смертоносных решений» . Красный Крест . 687 :94.
  5. ^ «Автономия без тайны: где провести черту?» . 1.0 Человек . 09.05.2014. Архивировано из оригинала 16 ноября 2018 г. Проверено 8 июня 2018 г.
  6. ^ «Беспилотные авиационные системы (БДП 0-30.2)» . GOV.UK. ​Проверено 8 июня 2018 г.
  7. ^ Кришнан, Армин (2016). Роботы-убийцы: законность и этичность автономного оружия . Тейлор и Фрэнсис. дои : 10.4324/9781315591070 . ISBN  9781317109129 . Проверено 8 июня 2018 г.
  8. ^ «Ознакомимся с военной робототехникой» . Экономист . 25 января 2018 года . Проверено 7 февраля 2018 г.
  9. ^ «США заявляют, что Россия «разрабатывает» подводную торпеду с ядерным боеголовкой» . CNN . 3 февраля 2018 года . Проверено 7 февраля 2018 г.
  10. ^ «Россия создает ракету, которая может принимать собственные решения» . Newsweek . 20 июля 2017 г.
  11. ^ Литовкин, Николай (31 мая 2017 г.). «Цифровое оружие Судного дня России: Роботы готовятся к войне – Russia Beyond» . Россия за пределами .
  12. ^ « Товарищ по оружию»: Россия разрабатывает свободомыслящую военную машину» . 09.08.2017.
  13. ^ «Восстание машин: взгляд на новейших российских боевых роботов» . 06.06.2017.
  14. ^ «Терминатор вернулся? Россияне добились серьезных успехов в области искусственного интеллекта» . Россия за пределами . 10 февраля 2016 г.
  15. ^ «В России разработан виртуальный тренажер для роботов и дронов» . 15 мая 2017 года. Архивировано из оригинала 11 октября 2017 года . Проверено 3 сентября 2017 г.
  16. ^ «Кара: Я не раскрывала государственную тайну о роботах» . «Джерузалем Пост» .
  17. ^ Аллен, Грегори. «Понимание стратегии Китая в области искусственного интеллекта» . Центр новой американской безопасности . Проверено 11 марта 2019 г.
  18. ^ «Экспортирует ли Китай роботов-убийц на Ближний Восток?» . Азия Таймс . 28 ноября 2019 года . Проверено 21 декабря 2019 г.
  19. ^ «Британская армия в 2019 году будет оперативно развертывать новых роботов | Март 2019 года, глобальная армейская новостная индустрия оборонной безопасности | Глобальная новостная индустрия оборонной безопасности, армия 2019 года | Архив новостей года» .
  20. ^ «ВМС США планируют построить беспилотный флот-призрак» .
  21. ^ Хэмблинг, Дэвид. «Возможно, дроны впервые атаковали людей полностью автономно» . Новый учёный . Проверено 30 мая 2021 г.
  22. ^ «Дрон-убийца «выследил человека» без приказа» . Фокс Ньюс . 29 мая 2021 г. Проверено 30 мая 2021 г.
  23. ^ Хэмблинг, Дэвид. «Израиль применил первый в мире рой боевых дронов с искусственным интеллектом при атаках в секторе Газа» . Новый учёный . Проверено 15 января 2023 г.
  24. ^ «БОТЫ-БОЙНИ ЗДЕСЬ» .
  25. ^ «Мечта DARPA о крошечной армии роботов близка к тому, чтобы стать реальностью» . декабрь 2020.
  26. ^ Амитай Эциони; Орен Эциони (июнь 2017 г.). «Плюсы и минусы автономных систем вооружения» . армия.мил .
  27. ^ Министерство обороны США (2012 г.). «Директива 3000.09, Автономность систем вооружения» (PDF) . п. 2. Архивировано из оригинала (PDF) 1 декабря 2012 г.
  28. Перейти обратно: Перейти обратно: а б Губруд, Марк (апрель 2015 г.). «Полуавтономные и самостоятельные: роботы-убийцы в пещере Платона» . Бюллетень ученых-атомщиков . Архивировано из оригинала 9 мая 2017 г. Проверено 30 октября 2017 г.
  29. ^ Ламот, Дэн (30 марта 2016 г.). «Пентагон изучает угрозу, связанную с «роботами-убийцами»» . Бостон Глобус .
  30. ^ Хаит, Джонатан (3 октября 2016 г.). «Барак Обама о 5 днях, определивших его президентство» . Ежедневный разведчик . Проверено 3 января 2017 г.
  31. ^ Деверо, Райан; Эммонс, Алекс (3 октября 2016 г.). «Обама обеспокоен тем, что будущие президенты будут вести бесконечную тайную войну дронов» . Перехват . Проверено 3 января 2017 г.
  32. ^ Стефаник, Элиза М. (22 мая 2018 г.). «HR5356 — 115-й Конгресс (2017–2018 гг.): Закон об искусственном интеллекте Комиссии национальной безопасности 2018 года» . www.congress.gov . Проверено 13 марта 2020 г.
  33. ^ Баум, Сет (30 сентября 2018 г.). «Противодействие дезинформации суперинтеллекта» . Информация . 9 (10): 244. дои : 10.3390/info9100244 . ISSN   2078-2489 .
  34. ^ Соединенные Штаты. Совет оборонных инноваций. Принципы искусственного интеллекта: рекомендации по этическому использованию искусственного интеллекта Министерством обороны . OCLC   1126650738 .
  35. ^ Рассел, Стюарт (27 мая 2015 г.). «Займите позицию в отношении ИИ-оружия» . Международный еженедельный научный журнал . 521 .
  36. Перейти обратно: Перейти обратно: а б Койн, Кристофер; Альшами, Яхья А. (3 апреля 2021 г.). «Порочные последствия смертоносных автономных систем вооружения» . Обзор мира . 33 (2): 190–198. дои : 10.1080/10402659.2021.1998747 . ISSN   1040-2659 . S2CID   233764057 .
  37. ^ Шарки, Ноэль Э. (июнь 2012 г.). «Неизбежность войны автономных роботов*» . Международное обозрение Красного Креста . 94 (886): 787–799. дои : 10.1017/S1816383112000732 . ISSN   1816-3831 . S2CID   145682587 .
  38. ^ Мюллер, Винсент К. (2016). Автономные роботы-убийцы, вероятно, являются хорошей новостью . Эшгейт. стр. 67–81.
  39. ^ Амбрелло, Стивен; Торрес, Фил; Де Беллис, Анджело Ф. (01 марта 2020 г.). «Будущее войны: может ли смертоносное автономное оружие сделать конфликт более этичным?» . ИИ и общество . 35 (1): 273–282. дои : 10.1007/s00146-019-00879-x . hdl : 2318/1699364 . ISSN   1435-5655 . S2CID   59606353 .
  40. ^ Амбрелло, Стивен; Вуд, Натан Габриэль (20 апреля 2021 г.). «Автономные системы вооружения и контекстуальный характер выведенного из строя статуса» . Информация . 12 (5): 216. doi : 10.3390/info12050216 . hdl : 1854/LU-8709449 .
  41. ^ Келли М. Сэйлер (8 июня 2021 г.). Учебник по обороне: новые технологии (PDF) (отчет). Исследовательская служба Конгресса . Проверено 22 июля 2021 г.
  42. ^ Ньягуди, Ньягуди Мусанду (9 декабря 2016 г.). «Докторская диссертация по военной информатике (OpenPhD #openphd): Летальная автономия оружия спроектирована и / или рецессивна» . Архивировано из оригинала 07 января 2017 г. Проверено 6 января 2017 г.
  43. ^ ВОРОБЕЙ, РОБЕРТ (2007). «Роботы-убийцы» . Журнал прикладной философии . 24 (1): 62–77. дои : 10.1111/j.1468-5930.2007.00346.x . ISSN   0264-3758 . JSTOR   24355087 . S2CID   239364893 .
  44. ^ Симпсон, Томас В.; Мюллер, Винсент К. (2016). «Просто война и убийства роботов» . Философский ежеквартальный журнал . 66 (263): 302–22. дои : 10.1093/pq/pqv075 .
  45. ^ Буланин и др., «Ограничения автономии в системах вооружения», SIPRI и ICRC (2020): 37.
  46. ^ Закшевский, Кот (27 июля 2015 г.). «Маск и Хокинг предупреждают об оружии искусственного интеллекта» . Блоги WSJ — Цифры . Проверено 28 июля 2015 г.
  47. ^ Гиббс, Сэмюэл (27 июля 2015 г.). «Маск, Возняк и Хокинг призывают запретить боевой искусственный интеллект и автономное оружие» . Хранитель . Проверено 28 июля 2015 г.
  48. Перейти обратно: Перейти обратно: а б «Смертельные решения — 8 возражений против роботов-убийц» (PDF) . п. 10 . Проверено 2 декабря 2016 г.
  49. ^ «Первая страница» . Запретить летальное автономное оружие . 10.11.2017 . Проверено 9 июня 2018 г.
  50. ^ «Святой Престол возобновляет призыв запретить роботов-убийц» . Католическое информационное агентство . 28 ноября 2018 года . Проверено 30 ноября 2018 г.
  51. Перейти обратно: Перейти обратно: а б Гейл, Дэмиен (29 марта 2019 г.). «Великобритания, США и Россия среди тех, кто выступает против запрета роботов-убийц» . Хранитель . Проверено 30 марта 2019 г.
  52. ^ Верхойзер, Нина (27 августа 2018 г.). «Следует ли запретить «роботов-убийц»?» . Немецкая волна (ДВ) . Проверено 31 декабря 2021 г.
  53. ^ Сильва, Даниэлла (2 декабря 2022 г.). «Голосование в Сан-Франциско за разрешение полиции использовать смертоносных роботов вызывает беспокойство и возмущение» . Новости Эн-Би-Си . Проверено 5 декабря 2022 г.
  54. ^ Холанд, Лена (5 декабря 2022 г.). «Активисты выступают против смертоносных роботов полиции Сан-Франциско из-за проблем с законностью» . КГО-ТВ . Проверено 5 декабря 2022 г.
  55. ^ Моррис, доктор юридических наук (6 декабря 2022 г.). «SF прекращает полицейскую политику в отношении «роботов-убийц» после огромной негативной реакции — на данный момент» . Хроники Сан-Франциско . Проверено 6 декабря 2022 г.
  56. ^ Бенто, Лукас (2017). «Не просто деоданды: ответственность человека при использовании жестоких интеллектуальных систем в соответствии с международным публичным правом» . Хранилище стипендий Гарварда . Проверено 14 сентября 2019 г.
  57. ^ Гейст, Эдвард Мур (15 августа 2016 г.). «Уже слишком поздно останавливать гонку вооружений ИИ. Вместо этого мы должны ею управлять». Бюллетень ученых-атомщиков . 72 (5): 318–321. Бибкод : 2016БуАтС..72э.318Г . дои : 10.1080/00963402.2016.1216672 . ISSN   0096-3402 . S2CID   151967826 .
  58. ^ Маас, Маттейс М. (06 февраля 2019 г.). «Насколько жизнеспособен международный контроль над вооружениями для военного искусственного интеллекта? Три урока ядерного оружия». Современная политика безопасности . 40 (3): 285–311. дои : 10.1080/13523260.2019.1576464 . ISSN   1352-3260 . S2CID   159310223 .
  59. ^ Экельхоф, Мерель (2019). «Выход за рамки семантики автономного оружия: значимый человеческий контроль в действии» . Глобальная политика . 10 (3): 343–348. дои : 10.1111/1758-5899.12665 . ISSN   1758-5899 .
  60. ^ Амбрелло, Стивен (5 апреля 2021 г.). «Соединение уровней абстракции в понимании значимого человеческого контроля над автономным оружием: двухуровневый подход» . Этика и информационные технологии . 23 (3): 455–464. дои : 10.1007/s10676-021-09588-w . hdl : 2318/1784315 . ISSN   1572-8439 .
  61. ^ Аллен, Грегори К. (20 мая 2022 г.). «Одна из ключевых проблем дипломатии в области искусственного интеллекта: военные Китая не хотят говорить» . Центр стратегических и международных исследований (CSIS) . Проверено 20 мая 2022 г.
  62. ^ Брэндон Вильяроло. «Международный саммит военного ИИ завершился обещанием 60 государств» . www.theregister.com . Проверено 17 февраля 2023 г.
  63. ^ Пандей, Шашанк (4 января 2024 г.). «HRW призывает к заключению международного договора о запрете «роботов-убийц» » . Юрист . Проверено 8 января 2024 г.

Дальнейшее чтение [ править ]

  1. ^ Туссен-Штраус, Джош; Ассаф, Али; Пирс, Джозеф; Бакстер, Райан (24 февраля 2023 г.). «Как роботы-убийцы меняют современную войну – видео» . Хранитель . ISSN   0261-3077 . Проверено 27 февраля 2023 г.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 095b5f05239795395afc7405f83cb366__1713799980
URL1:https://arc.ask3.ru/arc/aa/09/66/095b5f05239795395afc7405f83cb366.html
Заголовок, (Title) документа по адресу, URL1:
Lethal autonomous weapon - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)