Jump to content

Смертельное автономное оружие

(Перенаправлен от робота Killer )
Сербский Land Rover Defender Trawing Traying Traying с «MiloШ».

Смертельное автономное оружие ( законы ) - это тип автономной военной системы, которая может самостоятельно искать и задействовать цели на основе запрограммированных ограничений и описаний. Законы также известны как летальные системы автономного оружия ( законы ), автономные системы оружия ( AWS ), роботизированное оружие или роботы -убийцы . Законы могут работать в воздухе, на земле, на воде, под водой или в космосе. Автономия систем с 2018 года был ограничен в том смысле, что человек дает окончательную команду атаковать - хотя есть исключения с определенными «защитными» системами.

Быть автономным как оружие

[ редактировать ]

Быть «автономным» имеет разные значения в разных областях исследования. С точки зрения развития военного оружия, выявление оружия как автономного не так ясно, как в других областях. [ 1 ] Конкретный стандарт, который влечет за собой концепцию автономного, может сильно различаться между различными учеными, странами и организациями.

У разных людей есть много определений того, что представляет собой смертельное автономное оружие. Официальная политика Министерства обороны Соединенных Штатов по автономии в системах оружия, определяет автономные системы оружия, как «Система оружия, которая после активации может выбирать и задействовать цели без дальнейшего вмешательства человеческого оператора». [ 2 ] Хизер Рофф, писательница юридической школы Университета Университета Западного резерва , описывает автономные системы оружия как «вооруженные системы вооружения, способные изучать и адаптировать их» функционирование в ответ на меняющиеся обстоятельства в окружающей среде, в которых они развернуты, как хорошо, способный принимать решения самостоятельно ». [ 3 ] Это определение автономных систем оружия является довольно высоким порогом по сравнению с определениями таких ученых, как определения Питера Асаро и Марка Губруда, показанные ниже.

Такие ученые, как Питер Асаро и Марк Губруд, пытаются установить порог ниже, и судить больше систем оружия как автономные. Они считают, что любая система оружия, которая способна выпустить смертельную силу без операции, решения или подтверждения человеческого руководителя, может считаться автономным. По словам Губруда, система оружия, работающая частично или полностью без вмешательства человека, считается автономной. Он утверждает, что система оружия не должна иметь возможности полностью принимать решения само по себе, чтобы называться автономными. Вместо этого его следует рассматривать как автономное, если он активно участвует в одной или нескольких частях «процесса подготовки», от поиска цели до окончательного стрельбы. [ 4 ] [ 5 ]

Другие организации, однако, устанавливают стандарт системы автономного оружия в более высоком положении. Министерство обороны Великобритании определяет системы автономного оружия как «системы, способные понять намерения и направления более высокого уровня. Из этого понимания и восприятия ее окружающей среды такая система способна предпринять соответствующие действия для достижения желаемого состояния. способен решить курс действий, из ряда альтернатив, не зависящий от человеческого надзора и контроля - такое человеческое взаимодействие с системой все еще может присутствовать. Предсказуемые индивидуальные действия не могут быть ». [ 6 ]

В результате состав договора между государствами требует общепринятой маркировки того, что именно составляет автономное оружие. [ 7 ]

Автоматические защитные системы

[ редактировать ]

Самым старым автоматически является летальное оружие, это сухопутный шахт , используемый как минимум с 1600 -х годов, и военно -морские шахты , используемые как минимум с 1700 -х годов. Антиперменные шахты запрещены во многих странах по договору Оттавы 1997 года , не считая Соединенных Штатов, России и большей части Азии и Ближнего Востока.

Некоторые текущие примеры законов-это автоматизированные системы активной защиты с радаром, «харкилл», такие как системы CIWS используемые для защиты кораблей, которые использовались с 1970-х годов (например, CIWS США ). Такие системы могут автономно идентифицировать и атаковать встречные ракеты, ракеты, артиллерийские огни, самолеты и поверхностные суда в соответствии с критериями, установленным человеком. Аналогичные системы существуют для танков, таких как российская арена , израильский трофей и немецкий AMAP-AD . Несколько типов стационарных часовых оружия , которые могут стрелять в людей и транспортных средств, используются в Южной Корее и Израиле. Многие системы противоракетной обороны , такие как железный купол , также обладают автономными возможностями нацеливания.

Основной причиной отсутствия « человека в цикле » в этих системах является необходимость быстрой реакции. Они, как правило, использовались для защиты персонала и установок от входящих снарядов.

Автономные системы наступления

[ редактировать ]

По словам Экономиста , в качестве технологических достижений будущие применение беспилотных подводных транспортных средств могут включать в себя очистку шахты, миновые, анти-подводные сенсорные сети в оспариваемых водах, патрулирование с активным сонаром, повторное пополнение полевых подводных лодок и становятся недорогими ракетными платформами. [ 8 ] В 2018 году в обзоре ядерной позы США утверждалось, что Россия разрабатывает «новую межконтинентальную, ядерную, ядерную, подведенную автономную торпеду», названную « статус 6 ». [ 9 ]

Российская федерация активно развивает искусственно интеллектуальные ракеты , [ 10 ] беспилотники , [ 11 ] Беспилотные транспортные средства , военные роботы и роботы медика. [ 12 ] [ 13 ] [ 14 ] [ 15 ]

Израильский министр Айоб Кара заявил в 2017 году, что Израиль разрабатывает военных роботов, в том числе такие маленькие, как мухи. [ 16 ]

В октябре 2018 года Зенг Йи, старший исполнительный директор китайской оборонной фирмы Norinco , выступил с речью, в которой он сказал, что «на будущих полях битвы не будет никаких людей, сражающихся», и что использование смертельного автономного оружия в войне состоит в том, чтобы »состоить». неизбежный". [ 17 ] В 2019 году министр обороны США Марк Эспер набросился в Китай за продажу беспилотников, способных покончить жизнь без человеческого надзора. [ 18 ]

Британская армия развернула новые беспилотные автомобили и военных роботов в 2019 году. [ 19 ]

Военно -морской флот США разрабатывает «призрачные» флоты беспилотных кораблей . [ 20 ]

Stm kargu drone

В 2020 году беспилотник Каргу 2 охотился на и напал на человеческую цель в Ливии, согласно отчету Группы экспертов Совета Безопасности ООН по Ливии, опубликованного в марте 2021 года. Это мог быть впервые вооруженным роботом автономного убийцы -убийцы. со смертельным оружием атаковало людей. [ 21 ] [ 22 ]

В мае 2021 года Израиль провел атаку с боевым дрон, управляемая ИИ, в Газе. [ 23 ]

С тех пор было представлено многочисленные сообщения о роях и других системах автономных вооружений, используемых на полях сражений по всему миру. [ 24 ]

Кроме того, DARPA работает над созданием роев из 250 автономных летальных беспилотников, доступных для американских военных. [ 25 ]

[ редактировать ]

Степень контроля человека

[ редактировать ]

Три классификации степени контроля человека автономных систем оружия были изложены Бонни Дочерти в отчете Human Rights Watch 2012 года . [ 26 ]

  • Человек в петле: человек должен спровоцировать действие оружия (другими словами, не полностью автономными).
  • Человек на петле: человек может прервать действие.
  • Человек-из-за петли: человеческие действия не вовлечены.

Стандарт, используемый в политике США

[ редактировать ]

Нынешние государства политики США: «Автономные… системы оружия должны быть разработаны, чтобы позволить командирам и операторам осуществлять соответствующие уровни человеческого суждения в отношении применения силы». [ 27 ] Тем не менее, политика требует, чтобы автономные системы оружия, которые убивают людей или используют кинетическую силу, выбирая и привлекая цели без дальнейшего вмешательства человека, были сертифицированы как соответствующие «соответствующим уровням» и другими стандартами, а не то, чтобы такие системы оружия не могли соответствовать этим стандартам и были поэтому запрещено. [ 28 ] «Полуавтономные» охотники-убийцы, которые автономно идентифицируют и атакуют цели, даже не требуют сертификации. [ 28 ] Заместитель министра обороны Роберт О. Работа заявил в 2016 году, что Министерство обороны «не будет делегировать смертельную власть машине для принятия решения», но, возможно, потребуется пересмотреть это, поскольку «авторитарные режимы» могут сделать это. [ 29 ] В октябре 2016 года президент Барак Обама заявил, что в начале своей карьеры он опасался будущего, в котором президент США, использующий беспилотные войны Демократические дебаты ». [ 30 ] [ 31 ] В США, связанный с безопасностью ИИ, с 2018 года подпал под действие Комиссии по национальной безопасности по искусственному интеллекту. [ 32 ] [ 33 ] 31 октября 2019 года Совет по инновациям в области обороны Министерства обороны Соединенных Штатов опубликовал проект отчета, в котором изложены пять принципов для вооруженного искусственного интеллекта, и дают 12 рекомендаций по этическому использованию искусственного интеллекта Министерством обороны, которые обеспечат человеческий оператор Всегда сможете заглянуть в «черный ящик» и понять процесс цепочки убийств. Основная проблема заключается в том, как будет реализован отчет. [ 34 ]

Возможные нарушения этики и международных актов

[ редактировать ]

Стюарт Рассел , профессор компьютерных наук из Калифорнийского университета, Беркли заявил, что озабоченность, которую он испытывает, заключается в том, что его мнение в том, что он неэтичный и бесчеловечный. Основная проблема с этой системой заключается в том, что трудно различить комбатантов и некомбатантов. [ 35 ]

Некоторые экономисты обеспокоены [ 36 ] и юридические ученые о том, будут ли законы нарушать международное гуманитарное право , особенно принцип различия, который требует способности дискриминировать комбатантов от некомбатантов, и принцип соразмерности , который требует, чтобы ущерб гражданским лицам был пропорционален военной цели. [ 37 ] Эта проблема часто рассматривается как повод для того, чтобы запретить «убийственных роботов» вообще - но сомнительно, что эта проблема может быть аргументом против законов, которые не нарушают международное гуманитарное право. [ 38 ] [ 39 ] [ 40 ]

В докладе Американской исследовательской службы Конгресса в 2021 году говорится, что «не существует внутренних или международных правовых запретов на развитие использования законов», хотя он признает текущие переговоры на Конвенции ООН о определенном обычном оружии (CCW). [ 41 ]

Некоторые говорят, что законы о том, чтобы размыть границы того, кто несет ответственность за конкретное убийство. [ 42 ] [ 36 ] Философ Роберт Спарроу утверждает, что автономное оружие является причинно, но не морально ответственным, аналогично детским солдатам. В каждом случае он утверждает, что существует риск возникновения злодеяний без подходящего субъекта для ответственности, что нарушает JU в Белло . [ 43 ] Томас Симпсон и Винсент Мюллер утверждают, что они могут облегчить запись, кто дал какую команду. [ 44 ] Потенциальные нарушения IHL по законам являются - по определению - только применимы в условиях конфликтов, которые предполагают необходимость различения комбатантов и гражданских лиц. Таким образом, любой сценарий конфликта, лишенный присутствия гражданских лиц - т.е. в космосе или в глубоких морях - не сталкивался с препятствиями, связанными с IHL. [ 45 ]

Кампании по запрету законов

[ редактировать ]
Митинг на ступеньках мэрии Сан -Франциско, протестуя против голосования, чтобы разрешить полицию использования смертоносных роботов.
Сплоченность на ступеньках мэрии Сан -Франциско , протестуя против голосования, чтобы разрешить полицию использования роботов смертоносных сил.

Возможность законов вызвала значительные дебаты, особенно о риске «убийственных роботов», бродящих по Земле - в ближайшем или дальнем будущем. Групповая кампания по прекращению роботов -убийц, сформированных в 2013 году. В июле 2015 года более 1000 экспертов в искусственном интеллекте подписали письмо о угрозе гонки вооружений искусственного интеллекта и призывающего запретить автономное оружие. Письмо было представлено в Буэнос-Айресе на 24-й Международной совместной конференции по искусственному интеллекту (IJCAI-15) и был подписан Стивеном Хокингом , Элоном Маск , Стивом Возняком , Ноамом Хомским , Skype соучредителем Jaan Tallinn и Google Deepmind, Noam Chomsky, Skype Jaan Tallinn и Google Deepmind, Google Deepmind, соучредителем Noam Chomsk Основатель Демис Хассабис , среди других. [ 46 ] [ 47 ]

Согласно Pax for Peace (одна из основателей организации кампании по остановке роботов -убийц), полностью автоматизированное оружие (FAWS) снизит порог отправления войны, поскольку солдаты удаляются с поля битв Предоставление политикам и другим лицам, принимающим решения, больше места в решении, когда и как идти на войну. [ 48 ] Они предупреждают, что после развертывания Faws будет сложнее демократического контроля над войной - то, что автор « Убийство» - роман по этой теме - и его специалист Даниэль Суарес также предупредил: По его словам, это может недавние власть в очень немногих руках Требование очень мало людей идти на войну. [ 48 ]

Есть сайты [ нужно разъяснения ] Протестуют против развития законов, представляя нежелательные последствия, если продолжаются исследования в области искусственного интеллекта для обозначения оружия. На этих веб -сайтах новости об этических и юридических вопросах постоянно обновляются для посетителей, чтобы вспомнить недавние новости о международных собраниях и исследовательских статьях, касающихся законов. [ 49 ]

Святой Престол призывал международное сообщество несколько раз запретить использование законов. В ноябре 2018 года архиепископ Иван Юркович , постоянный наблюдатель Святого Престола перед Организацией Объединенных Наций, заявил, что «для предотвращения гонки вооружений и увеличения неравенства и нестабильно Время, чтобы не допустить, чтобы законы стали реальностью завтрашней войны ». Церковь беспокоится о том, что эти системы вооружения имеют возможность необратимо изменить природу войны, создавать отрешение от человеческой агентства и поставить под сомнение человечество обществ. [ 50 ]

По состоянию на 29 марта 2019 года Большинство правительств представляли на собрании ООН, чтобы обсудить этот вопрос, предпочитал запрет на законы. [ 51 ] Меньшинство правительств, в том числе Министерство Австралии, Израиля, России, Великобритании и США, выступили против запрета. [ 51 ] Соединенные Штаты заявили, что автономное оружие помогло предотвратить убийство гражданских лиц. [ 52 ]

В декабре 2022 года голосование Совета руководителей Сан -Франциско разрешило разрешить полиции Сан -Франциско привлекло внимание и протесты. использование законов [ 53 ] [ 54 ] Правление отменило это голосование на последующем заседании. [ 55 ]

Нет запрета, но регулирование

[ редактировать ]

Третий подход фокусируется на регулировании использования автономных систем оружия вместо запрета. [ 56 ] Военный контроль над вооружением AI, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях в сочетании с активным мониторингом и неформальной дипломатией («трек II») сообществами экспертов вместе с процессом юридической и политической проверки. [ 57 ] [ 58 ] [ 59 ] [ 60 ] В 2021 году Министерство обороны Соединенных Штатов запросило диалог с китайской народной Армией освободительной армии по автономному оружию с поддержкой AI, но ему было отказано. [ 61 ]

Саммит из 60 стран был проведен в 2023 году по ответственному использованию ИИ в армии. [ 62 ]

22 декабря 2023 года была принята резолюция Генеральной Ассамблеи Организации Объединенных Наций для поддержки международной дискуссии относительно проблем по поводу законов. Голосование было 152 за в пользу, четыре против и 11 воздержавшихся. [ 63 ]

Смотрите также

[ редактировать ]
  1. ^ CROOTOF, Ребекка (2015). «Убийственные роботы здесь: правовые и политические последствия» . Cardozo L. Rev. 36 : 1837 - через Heinonline.org.
  2. ^ Аллен, Грегори (6 июня 2022 года). «DOD обновляет свою десятилетнюю политику автономного оружия, но путаница остается широко распространенной» . Центр стратегических и международных исследований . Получено 24 июля 2022 года .
  3. ^ Рофф, Хизер (2015). «Смертельное автономное оружие и пропорциональность jus ad bellum» .
  4. ^ Асаро, Питер (2012). «О запрете автономных систем оружия: права человека, автоматизация и дегуманизация принятия решений смертоносными» . Красный Крест . 687 : 94.
  5. ^ "Автономия без загадки: где вы нарисуете линию?" Полем 1.0 ЧЕЛОВЕК . 2014-05-09. Архивировано из оригинала 2018-11-16 . Получено 2018-06-08 .
  6. ^ «Беспилотные авиационные системы (JDP 0-30.2)» . Gov.uk. ​Получено 2018-06-08 .
  7. ^ Кришнан, Армин (2016). Убийственные роботы: законность и этичность автономного оружия . Тейлор и Фрэнсис. doi : 10.4324/9781315591070 . ISBN  9781317109129 Полем Получено 2018-06-08 .
  8. ^ «Захватывает борьбу с военной робототехникой» . Экономист . 25 января 2018 года . Получено 7 февраля 2018 года .
  9. ^ «US говорит, что Россия« развивается »под подводной ядерной торпедой» . CNN . 3 февраля 2018 года . Получено 7 февраля 2018 года .
  10. ^ «Россия строит ракету, которая может принимать свои собственные решения» . Newsweek . 20 июля 2017 года.
  11. ^ Litovkin, Nikolai (2017-05-31). «Российское цифровое оружие Судного дня: роботы готовятся к войне - России за пределами» . Россия за пределами .
  12. ^ « Товарищ по оружию»: Россия разрабатывает свободную военную машину » . 2017-08-09.
  13. ^ «Восстание машин: взглянуть на последних боевых роботов России» . 2017-06-06.
  14. ^ «Терминатор вернулся? Русские делают значительные успехи в искусственном интеллекте» . Россия за пределами . 10 февраля 2016 года.
  15. ^ «Виртуальный тренер для роботов и беспилотников разработал в России» . 15 мая 2017 года. Архивировано с оригинала 11 октября 2017 года . Получено 3 сентября 2017 года .
  16. ^ «Кара: я не раскрывал государственные секреты о роботах» . Иерусалимский пост .
  17. ^ Аллен, Грегори. «Понимание стратегии ИИ Китая» . Центр новой американской безопасности . Получено 11 марта 2019 года .
  18. ^ "Китай экспортирует убийственных роботов на Ближний Восток?" Полем Азия времена . 28 ноября 2019 года . Получено 21 декабря 2019 года .
  19. ^ «Британская армия для оперативного развертывания новых роботов в 2019 году | Март 2019 г. Глобальная новостная индустрия Армии оборонительной безопасности | Глобальная армия новостной индустрии обороны 2019 | Архив -годом новостного года» .
  20. ^ «Военно -морской флот США планирует построить беспилотный флот призраков» .
  21. ^ Хэмблинг, Дэвид. «Дроны, возможно, напали на людей полностью автономно в первый раз» . Новый ученый . Получено 2021-05-30 .
  22. ^ «Убийственный беспилотник» охотился на человеческую цель », не сказав» . Fox News . 2021-05-29 . Получено 2021-05-30 .
  23. ^ Хэмблинг, Дэвид. «Первый в мире в мире боевой беспилотник использовал в Израиле в атаках в Газе» . Новый ученый . Получено 2023-01-15 .
  24. ^ «Слотер боты здесь» .
  25. ^ «Мечта Дарпы о крошечной армии роботов близка к тому, чтобы стать реальностью» . Декабрь 2020 года.
  26. ^ Амитай Эциони; Орен Эзиони (июнь 2017 г.). «Плюсы и минусы автономных систем оружия » Армия. Мил
  27. ^ Министерство обороны США (2012). «Директива 3000.09, автономия в системах оружия» (PDF) . п. 2. Архивировано из оригинала (PDF) 1 декабря 2012 года.
  28. ^ Jump up to: а беременный Губруд, Марк (апрель 2015 г.). «Полуавтономные и самостоятельно: убийственные роботы в пещере Платона» . Бюллетень атомных ученых . Архивировано с оригинала 2017-05-09 . Получено 2017-10-30 .
  29. ^ Ламот, Дэн (30 марта 2016 г.). «Пентагон изучает угрозу« убийцы робота » . Бостонский глобус .
  30. ^ Чейт, Джонатан (2016-10-03). «Барак Обама на 5 дней, которые сформировали его президентство» . Ежедневный разведчитель . Получено 3 января 2017 года .
  31. ^ Деверо, Райан; Эммонс, Алекс (2016-10-03). «Обама беспокоит будущие президенты, которые будут вести вечную, скрытую войну с беспилотниками» . Перехват . Получено 3 января 2017 года .
  32. ^ Стефаник, Элиз М. (2018-05-22). «HR5356 - 115 -й Конгресс (2017–2018): Закон об искусственном интеллекте Комиссии по национальной безопасности 2018 года» . www.congress.gov . Получено 2020-03-13 .
  33. ^ Баум, Сет (2018-09-30). «Противодействие дезинформации суперинтеллигентности» . Информация . 9 (10): 244. doi : 10.3390/info9100244 . ISSN   2078-2489 .
  34. ^ Соединенные Штаты. Совет по инновациям обороны. Принципы ИИ: Рекомендации по этическому использованию искусственного интеллекта Министерством обороны . OCLC   1126650738 .
  35. ^ Рассел, Стюарт (27 мая 2015 г.). «Встаньте на оружие искусственного интеллекта» . Международный еженедельный журнал науки . 521 .
  36. ^ Jump up to: а беременный Койн, Кристофер; Алшами, Яхья А. (2021-04-03). «Извращенные последствия летальных систем автономного оружия» . Обзор мира . 33 (2): 190–198. doi : 10.1080/10402659.2021.1998747 . ISSN   1040-2659 . S2CID   233764057 .
  37. ^ Шарки, Ноэль Э. (июнь 2012 г.). «Ответственность автономной роботиной войны*» . Международный обзор Красного Креста . 94 (886): 787–799. doi : 10.1017/s1816383112000732 . ISSN   1816-3831 . S2CID   145682587 .
  38. ^ Мюллер, Винсент С. (2016). Автономные убийственные роботы, вероятно, хорошие новости . Эшгейт. С. 67–81.
  39. ^ Зонтик, Стивен; Торрес, Фил; Де Беллис, Анджело Ф. (2020-03-01). «Будущее войны: может ли летальное автономное оружие сделать конфликт более этичным?» Полем ИИ и общество . 35 (1): 273–282. doi : 10.1007/s00146-019-00879-x . HDL : 2318/1699364 . ISSN   1435-5655 . S2CID   59606353 .
  40. ^ Зонтик, Стивен; Вуд, Натан Габриэль (2021-04-20). «Системы автономного оружия и контекстуальная природа статуса Hors de Combat» . Информация . 12 (5): 216. doi : 10.3390/info12050216 . HDL : 1854/LU-8709449 .
  41. ^ Келли М. Сэйлер (8 июня 2021 г.). Защитный учебник: новые технологии (PDF) (отчет). Исследовательская служба Конгресса . Получено 22 июля 2021 года .
  42. ^ Ньягуди, Ньягуди Мусанду (2016-12-09). «Тезис доктора философии в военной информатике (OpenPhd #Openphd): Смертельная автономия оружия разработана и/или рецессивна» . Архивировано из оригинала 2017-01-07 . Получено 2017-01-06 .
  43. ^ Воробей, Роберт (2007). "Убийцы -роботы" . Журнал прикладной философии . 24 (1): 62–77. doi : 10.1111/j.1468-5930.2007.00346.x . ISSN   0264-3758 . JSTOR   24355087 . S2CID   239364893 .
  44. ^ Симпсон, Томас В; Мюллер, Винсент С. (2016). «Просто война и убийства роботов» . Философский квартал . 66 (263): 302–22. doi : 10.1093/pq/pqv075 .
  45. ^ Boulanin et al., «Ограничения на автономию в системах оружия», Sipri & ICRC (2020): 37.
  46. ^ Zakrzewski, Cat (2015-07-27). «Маск, Хокинг предупреждает о оружии искусственного интеллекта» . Блоги WSJ - цифры . Получено 2015-07-28 .
  47. ^ Гиббс, Самуил (27 июля 2015 г.). «Мускус, Возняк и Хокинг побуждение к военному искусству ИИ и автономному оружию» . Хранитель . Получено 28 июля 2015 года .
  48. ^ Jump up to: а беременный «Смертельные решения - 8 возражений против роботов -убийц» (PDF) . п. 10 ​Получено 2 декабря 2016 года .
  49. ^ "Первая страница" . Запретить смертельное автономное оружие . 2017-11-10 . Получено 2018-06-09 .
  50. ^ «Священное Престол возобновляет апелляцию к запрету роботов -убийц» . Католическое информационное агентство . 28 ноября 2018 года . Получено 30 ноября 2018 года .
  51. ^ Jump up to: а беременный Гейл, Дэмиен (29 марта 2019 г.). «Великобритания, США и Россия среди тех, кто противостоит запрету робота -убийцы» . Хранитель . Получено 30 марта 2019 года .
  52. ^ Werkhäuser, Нина (27 августа 2018 г.). "Должны ли« убийственных роботов "быть запрещены?" Полем Deutsche Welle (DW) . Получено 31 декабря 2021 года .
  53. ^ Сильва, Даниэлла (2 декабря 2022 г.). «Сан -Франциско голосует, чтобы позволить полиции использование смертоносных роботов озабоченности и возмущения» . NBC News . Получено 5 декабря 2022 года .
  54. ^ Холанд, Лена (5 декабря 2022 г.). «Активисты отталкиваются против смертоносных роботов SFPD на фоне вопросов законности» . KGO-TV . Получено 5 декабря 2022 года .
  55. ^ Моррис, JD (6 декабря 2022 года). Политика «SF Halts 'Killer Robots» после огромной негативной реакции - пока » . Сан -Франциско Хроника . Получено 6 декабря 2022 года .
  56. ^ Бенто, Лукас (2017). «Никаких просто де -дезодэнд: человеческие обязанности по использованию насильственных интеллектуальных систем в соответствии с государственным международным правом» . Гарвардский стипендиальный депозитарий . Получено 2019-09-14 .
  57. ^ Гейст, Эдвард Мур (2016-08-15). «Уже слишком поздно остановить гонку AI Arms - мы должны управлять им». Бюллетень атомных ученых . 72 (5): 318–321. Bibcode : 2016buats..72e.318g . doi : 10.1080/00963402.2016.1216672 . ISSN   0096-3402 . S2CID   151967826 .
  58. ^ Maas, Matthijs M. (2019-02-06). «Насколько жизнеспособен международный контроль над военным искусственным интеллектом? Три урока из ядерного оружия». Современная политика безопасности . 40 (3): 285–311. doi : 10.1080/13523260.2019.1576464 . ISSN   1352-3260 . S2CID   159310223 .
  59. ^ Ekelhof, Merel (2019). «Выход за рамки семантики на автономном оружии: значимый человеческий контроль в работе» . Глобальная политика . 10 (3): 343–348. doi : 10.1111/1758-5899.12665 . ISSN   1758-5899 .
  60. ^ Зонтик, Стивен (2021-04-05). «Уровень абстракции связывания в понимании значимого человеческого контроля над автономным оружием: двухуровневый подход» . Этика и информационные технологии . 23 (3): 455–464. doi : 10.1007/s10676-021-09588-w . HDL : 2318/1784315 . ISSN   1572-8439 .
  61. ^ Аллен, Грегори С. (20 мая 2022 г.). «Один из ключевых проблем для дипломатии по ИИ: военные Китая не хотят говорить» . Центр стратегических и международных исследований (CSIS) . Получено 2022-05-20 .
  62. ^ Брэндон Виглиароло. «Международный военный саммит ИИ заканчивается залогом 60 штатов» . www.theregister.com . Получено 2023-02-17 .
  63. ^ Пандей, Шашанк (4 января 2024 г.). «HRW призывает к международному договору запретить« роботов -убийц » . Юрист . Получено 8 января 2024 года .

Дальнейшее чтение

[ редактировать ]
  1. ^ Туссен-Страсс, Джош; Асаф, Али; Пирс, Джозеф; Бакстер, Райан (2023-02-24). «Как убийственные роботы меняют современную войну - видео» . Хранитель . ISSN   0261-3077 . Получено 2023-02-27 .
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 8fdacc3655248c0816356370d8b59d87__1727137260
URL1:https://arc.ask3.ru/arc/aa/8f/87/8fdacc3655248c0816356370d8b59d87.html
Заголовок, (Title) документа по адресу, URL1:
Lethal autonomous weapon - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)